BIG DATA. Verfasser: Christian Schürer, Felix Zobrist, Sascha Freudiger. Projektcoach: Prof. Dr. Christian Thiel Diplom-Informatiker

Größe: px
Ab Seite anzeigen:

Download "BIG DATA. Verfasser: Christian Schürer, Felix Zobrist, Sascha Freudiger. Projektcoach: Prof. Dr. Christian Thiel Diplom-Informatiker"

Transkript

1 BIG DATA Verfasser: Christian Schürer, Felix Zobrist, Sascha Freudiger Projektcoach: Prof. Dr. Christian Thiel Diplom-Informatiker Seminararbeit im Modul WISE 2013

2 Quelle Titelbild:. (2012). Gefunden am unter Eingereicht am: 10. Januar 2014

3 Inhaltsverzeichnis III Inhaltsverzeichnis Inhaltsverzeichnis... III Abbildungsverzeichnis... V Tabellenverzeichnis... VI Abkürzungsverzeichnis... VII 1 Problemstellung Ziel der Arbeit Einführung Definition Volume (Datenmenge) Variety (Datenvielfalt) Velocity (Geschwindigkeit) Anwendungsbereiche Marketing und Vertrieb Forschung und Entwicklung Produktion, Service und Support Distribution und Logistik Finanz- und Risiko-Controlling Was fällt auf? Was ist neu? Abgrenzung & Business Intelligence Tools & Technologien Hadoop Komponenten Funktionsweise Nutzer von Hadoop Hadoop-Produkte Alternativen SAP - HANA Projekt Funktionsweise TB Benchmark System in der Cloud Chancen & Gefahren... 21

4 Inhaltsverzeichnis IV 5.1 Chancen Herausforderungen Big-Data-Strategie Weitere Herausforderungen Empfehlungen für KMU IBM Studie Analytics: The real-world use of big data Wie können KMU von profitieren? Empfehlungen zur Big-Data-Implementierung Phase 1: Educate to Explore Phase 2: Explore to Engage Phase 3: Engage to Execute Phase 4: Execute Quellenverzeichnis Vertraulichkeitserklärung... 36

5 Abbildungsverzeichnis V Abbildungsverzeichnis Abb. 1: Abb. 2: Abb. 3: Abb. 4: Abb. 5: Definition... 9 Map Reduce und HDFS Layer OLTP vs OLAP Herausforderungen Big-Data-Strategie Big-Data-Implementierungsphasen... 24

6 Tabellenverzeichnis VI Tabellenverzeichnis Tab. 1: Tab. 2: Chancen Herausforderungen... 24

7 Abkürzungsverzeichnis VII Abkürzungsverzeichnis ITU IDC LHC BI NoSQL HDFS International Telecommunication Union International Data Corporation Large Hadron Collider Business Intelligence Not Only SQL Hadoop Distributed File System

8 Kapitel 1: Problemstellung 8 1 Problemstellung Von einem Forschungsnetz zu einem globalen Kommunikationsnetz. Das Internet hat sich über die letzten Jahrzehnte rasant entwickelt und damit sind auch eine Vielzahl von Diensten und Anwendungen entstanden. Viele dieser Programme laufen heutzutage auf Smartphones oder Tablets und sind aus dem alltäglichen Leben nicht mehr wegzudenken. Laut einer aktuellen Studie der International Telecommunication Union (ITU) gibt es derzeit circa sechs Milliarden Mobilfunkteilnehmer. Die Anzahl der aktiven mobilen Teilnehmer mit Zugang zu Breitband-Netzen beläuft sich immerhin noch auf 1,1 Milliarden Menschen. Inklusive Haushalten mit kabelgebundenem Internetanschluss nutzen 32,5 Prozent der Weltbevölkerung oder 2,3 Milliarden Menschen das Internet. Diese Nutzer verursachen enorme Mengen an Daten wie beispielsweise Nutzdaten, Profildaten oder statistische Daten. Insgesamt wird das in 2012 erzeugte Datenvolumen in einer Studie der International Data Corporation (IDC) auf 2,7 Zettabytes (entspricht 2,7 Milliarden Terabyte) geschätzt, was ein Wachstum von 48 % gegenüber 2011 darstellt. Diese Daten bergen ein grosses Potential für unterschiedliche Branchen daher ist es auch nicht erstaunlich das Daten auch als das neue Öl des Digitalen Zeitalters bezeichnet werden. Entscheidend ist die Analyse dieser Daten, denn in unbearbeiteter Form kann deren Potential nicht optimal genutzt werden. Wenn es gelingt, diesen Daten in sinnvolle Strukturen zu gliedern, dann können diese zur Beantwortung von neuen Fragestellungen genutzt werden und ihr finanzielles Potential entfalten. Genau in diesem Umfeld kommt der Begriff ins Spiel. Dies ist ein abstrakter Oberbegriff für jegliche Art und Anzahl von Daten, die mit traditionellen Datenanalyseverfahren nicht mehr handhabbar sind und deshalb neuer Techniken und Technologien bedürfen. (Gesellschaft für Informatik, 2013; ITU, 2012; IDC, 2013) 1.1 Ziel der Arbeit Mit dieser Arbeit soll ein Überblick geschaffen werden in welchen Bereichen zum Einsatz kommt, welche Technologien dabei genutzt werden und was für Chancen und Gefahren mit den Einsatz von verbunden sind. Schlussendlich versucht das Projektteam eine Empfehlung auszuarbeiten mittels derer ein potentieller Einsatz von geprüft werden kann.

9 Kapitel 2: Einführung 9 2 Einführung umfasst Daten die die Kapazität herkömmlicher Datenbanksysteme überfordern. Die Daten sind zu gross, bewegen sich zu schnell oder passen nicht in die bestehende Datenbank-Architektur. (Dumbill, Howard, Zwemer, Loukides, Slocum, Croll, O Reilly, Steele & Hill, 2012, S. 3) 2.1 Definition Volume, Variety und Velocity. Diese drei V werden im Zusammenhang mit regelmässig erwähnt. Eines der weltweit führenden IT-Beratungs- und Forschungsunternehmen, die Gartner Gruppe, beschreibt in ihrem IT-Glossar Sinngemäss mit diesen Wörtern: Big data is high-volume, high-velocity and high-variety information assets that demand costeffective, innovative forms of information processing for enhanced insight and decision making. (Gartner, 2013) Auch die Autoren des Werkes im Praxiseinsatz Szenarien, Beispiele, Effekte des Deutschen Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e.v. (im Folgenden BITKOM genannt) verweisen in ihrem Werk auf diese drei Nomen und umschreiben die Definition von folgendermassen: bezeichnet den Einsatz grosser Datenmengen aus vielfältigen Quellen mit einer hohen Verarbeitungsgeschwindigkeit zur Erzeugung wirtschaftlichen Nutzens. (BITKOM, 2012, S. 21) Und auch die Autoren des Buchs Now, definieren mit den Worten:...volume, velocity, and variability of massive data (Dumbill et al., 2012, S. 3) Untenstehende Abbildung soll die Definition von visuell unterstützen. Abb. 1: Quelle: Definition Bitkom, 2012

10 Kapitel 2: Einführung Volume (Datenmenge) Wenn von gesprochen wird, stellt sich die Frage, was bedeutet Big? Dieses Big ist nicht eindeutig definiert und sollte nach den Autoren des McKinsey Global Instituts auch nicht eindeutig definiert werden. Da die Datenmenge in den kommenden Jahren stetig wachsen wird, werden auch immer grössere Mengenbezeichnungen im Umlauf sein. (Manyika, Chui, Brown, Bughin, Dobbs, Roxburgh & Hung Byers, 2011, S.1) Was jedoch eindeutig gesagt werden kann, ist dass immer mehr Organisationen und Unternehmen über riesige Datenberge verfügen. Um wenigstens eine Grössenordnung von Big Data zu nennen, die Datenberge können von einigen Terabytes bis hin zu Petabytes gehen. (Petabyte = bytes) (BITKOM, 2012, S. 21) Variety (Datenvielfalt) Immer mehr Datenformate aus immer mehr Quellen, damit müssen sich Unternehmen heutzutage auseinandersetzen. Diese Daten lassen sich grob in drei Kategorien unterteilen: unstrukturiert, semistrukturiert und strukturiert. Dabei können diese Daten sowohl aus internen Systemen und Programmen kommen als auch von externen Quellen. Diese Daten können z.b. Text-Daten, Web-Daten, tweets, clicks, streams, Sensor-Data, Audio- und Videodateien sein. (Schroeck, Shockley, Smart, Romero-Morales, & Tufano. 2012, S. 4; BITKOM, 2012, S. 21) Velocity (Geschwindigkeit) Die Geschwindigkeit mit der Daten erstellt, bearbeitet und analysiert werden, steigt kontinuierlich. Diese enormen Datenberge müssen immer schneller ausgewertet werden um Geschäftsprozesse anzupassen und die Entscheidungsfindung zu erleichtern. Aus diesen Gründen muss die Analyse der Daten oft in Echtzeit erfolgen um wirklichen Mehrwert zu generieren. Damit sind laut BITKOM folgende Herausforderungen verbunden: Analysen großer Datenmengen mit Antworten im Sekundenbereich Datenverarbeitung in Echtzeit Datengenerierung und Übertragung in hoher Geschwindigkeit (Schroeck et al., 2012, S. 4; BITKOM, 2012, S. 21)

11 Kapitel 3: Anwendungsbereiche 11 3 Anwendungsbereiche Rohstoffe sind die Basis für Produkte jeglicher Art. Daten werden als neuer Rohstoff betrachtet und treten in der digitalen Welt als Produktionsfaktor mit grossem Potential auf. Daten sind jedoch oft in unstrukturierter Form vorhanden und werden erst durch die Analyse zu wertvollen Bausteinen für die Weiterentwicklung von Produkten und Unternehmen. (BIT- KOM, 2012, S. 34) 3.1 Marketing und Vertrieb Der CEO von TESCO sagte einst: Pass dich dem Kunden an oder stirb (Philip Clarke, ohne Datum). Mit können Marketingverantwortliche Produkte und Dienstleistungen genauer auf ihre Kunden zuschneiden. Durch die aktive Analyse der Kundendaten können Unternehmen nicht nur Streuverluste reduzieren, sie haben die Möglichkeit Muster für die Kaufentscheidung zu identifizieren. Diese Muster sagen etwas über die Interessen, Vorlieben oder Themenbereiche aus, in denen sich ein Kunde bewegt. Somit eröffnen sich Cross- Selling-Potenziale und damit eine Erhöhung des Umsatzes. Da mit die Geschwindigkeit der Analyse auf Real-Time erhöht wird, besteht die Möglichkeit, dass durch Standortdaten den Kunden genau zum Zeitpunkt des Einkaufens spezifische Angebote unterbreitet werden können, sogenanntes location-based-marketing. (BITKOM, 2012, S ; Manyika et al., 2011, S.68) 3.2 Forschung und Entwicklung Wo geforscht oder entwickelt wird, da entstehen meist grosse Mengen an Daten. In diesem Bereich besteht ein grosses Potenzial für den Einsatz von. Besonders in den sehr forschungsintensiven Bereichen wie dem Gesundheitssektor oder in der Pharmaindustrie entstehen enorme und sehr heterogene Datenmengen. Die Analyse dieser Daten stellt eine grosse Herausforderung dar bei der sich die Big-Data-Technologie sehr vielseitig einsetzen lässt. Beispielsweise können verschiedene Forschungseinrichtungen ihre Daten zusammenlegen. Dadurch die zusammengelegten Informationen können rechen- und datenintensive Simulationen durchgeführt werden die zu besseren und genaueren Ergebnissen führen. Als Beispiel kann hier das Forschungszentrum CERN in Genf genannt werden. Wahrend eines Experiments mit dem Teilchenbeschleuniger Large Hadron Collider (LHC) entstehen pro Sekunde 40 Terabytes an Daten. (BITKOM, 2012, S. 37; Frauenhofer IAIS, 2013)

12 Kapitel 3: Anwendungsbereiche Produktion, Service und Support Mit lassen sich Produkte im laufenden Betrieb in Echtzeit analysieren. Dabei entstehen Daten über das Verhalten von Produkten und Prozessen unter Realbedingungen. Werden dazu noch externe Datenquellen wie beispielsweise Wetter und Geographie beigezogen, lässt sich das Wissen über die Produkte multiplizieren und die Zufriedenheit der Kunden steigern. (Manyika et al., 2011, S.81; BITKOM, 2012, S. 39; Frauenhofer IAIS, 2013) 3.4 Distribution und Logistik Heutzutage findet man in den meisten Fahrzeugen ein GPS-Navigationsgerät. Diese GPS- Daten können für die Logistikplanung sehr wertvoll sein. Zusätzlich können mit Sensoren ausgestattete Fahrzeugflotten den Benzinverbrauch oder den Zustand von Verschleissteilen übermitteln. Durch die Analyse diese GPS- und Sensor-Daten können Disponenten zeitnah Transporte planen, gegebenenfalls Routen und Beladung ändern sowie Wartungskosten und Stillstandzeiten minimieren. Dadurch lässt sich die Produktivität durch optimalen Einsatz von Kraftstoffen, vorbeugender Wartung sowie optimiertem Fahrverhalten verbessern. (BITKOM, 2012, S. 34) 3.5 Finanz- und Risiko-Controlling Das Finanz- und Risiko-Controlling profitiert von neuen Möglichkeiten im Bereich Betrugserkennung und Risikomanagement. Durch neue Big-Data-Technologien können die unterschiedlichsten Unternehmensinformationen schnell zusammengeführt und für Entscheidungen genutzt werden. Es stehen weit mehr Daten, Fakten und Beobachtungen als je zuvor zur Verfügung. Diese Informationen können analytisch so aufzubereiten werden, dass sie im Geschäftsprozess sofort zur Verfügung stehen. Im Gegensatz zu klassischen Business- Intelligence-Ansätzen, in denen vornehmlich formatierte Berichte auf starren Datenmodellen zum Einsatz kommen, erlauben Big-Data-Ansätze in weit stärkerem Mass als zuvor die gezielte Beantwortung von Ad-hoc-Fragestellungen. (BITKOM, 2012, S. 41) 3.6 Was fällt auf? Was ist neu? Die beschriebenen Anwendungsfälle wirken auf den ersten Blick nicht neu. Auch mit bestehenden BI-Systemen können viele dieser Analysen durchgeführt werden. Jedoch sind es die in Kapitel 1.1 Definition beschriebenen drei V s: - Volumen - Variety und - Velocity welche den Unterschied ausmachen, insbesondere weil diese in komplexen Problemen gleichzeitig behandelt werden. Dazu einige Aussagen aus der Praxis:

13 Kapitel 3: Anwendungsbereiche 13 Die Firma Oracle schreibt in einem White-Paper dazu: Big data is like traditional data in many ways: It must be captured, stored, organized, and analyzed, and the results of the analysis need to be integrated into established processes and influence how the business operates. But because big data comes from relatively new types of data sources that previously weren t mined for insight, companies aren t accustomed to collecting information from these sources, nor are they used to dealing with such large volumes of unstructured data. Therefore, much of the information available to enterprises isn t captured or stored for long-term analysis, and opportunities for gaining insight are missed. (Oracle, ohne Datum) John Felahi, CIO von Contant Analyst sagt zum Thema What s new? folgendes: When we look at the structured data world from years ago, the themes were the same: scale, performance & flexibility. New methods/tools augmented or evolved the solutions used for structured data insight data warehouses, datamarts, Business Intelligence, etc. We now have the same challenges with unstructured data that 80%+ of the information residing inside companies. Now we see in-memory content analytics being leverage to address the new requirements for the unstructured data. (Content Analyst, 2013) Des weiteren schreibt Price Waterhouse Coopers (PWC) zu : is about much more than data. It represents a new way of doing business one that is driven by data-based decision-making. (PWC, ohne Datum) ist somit nicht etwas total neues, durch die enorme Vielfallt an Datentypen, das hohe Tempo der Analyse und die gewaltige Menge an Daten jedoch auch nicht den bisherigen Ansätzen gleichzusetzten.

14 Kapitel 3: Anwendungsbereiche Abgrenzung & Business Intelligence Das hauptsächliche Unterscheidungsmerkmal zwischen Business Intelligence und ist die Ausrichtung auf die gesammelten und verarbeiteten Daten. BI-Lösungen setzen strukturierte, konsistente und beständige Daten voraus, wohingegen Lösungen speziell auf unstrukturierte und möglicherweise nicht konsistente Daten hin optimiert sind. Dementsprechend sind die eingesetzten Technologien auch ausgerichtet. Business Intelligence Lösungen setzen auf traditionelle Datenbanksysteme wie relationale Datenbanken, wohingegen Lösungen auf neuen Konzepten wie zum Beispiel Not Only SQL (NoSQL) Datenbanken oder dem Hadoop Framework basieren, die effizienter mit unstrukturierten und großen Datenmengen umgehen können. (Gesellschaft für Informatik, 2013) Im folgenden Abschnitt werden die gängigen Tools und Technologien im Bereich von Big Data erläutert.

15 Kapitel 4: Tools & Technologien 15 4 Tools & Technologien Es gibt verschiedene Tools und Technologien, welche ermöglichen und Unterstützen. Im folgenden Kapitel werden die wesentlichen Tools vorgestellt. ist eine sehr schnelllebige Thematik. Die erreichbare Speichergrösse und Verarbeitungsgeschwindigkeit verdoppelt sich spätestens alle zwei Jahre. Das bedeutet, dass Unternehmen mit immer grösser werdenden Datenmengen zu kämpfen haben. Um diese Daten zu verarbeiten gibt es verschiedene Tools, welche in den folgenden Kapiteln vorgestellt werden. Die meisten Analytics Lösungen basieren auf einem Hadoop Cluster. 4.1 Hadoop Hadoop ist ein Java basiertes Software-Framework, welches dem Benutzer ermöglicht grosse Rechenaufgaben an tausende Rechner verteilen zu können. Diese Funktion ermöglicht, Datenvolumen im Petabyte-Bereich zu verarbeiten. Entwickelt wurde das Framework von Doug Cutting. Der Entwickler und Suchmaschinenspezialist erkannte 2004, als Google den MapReduce-Algorithmus veröffentlichte, das grosse Potenzial darin komplexe Computing-Aufgaben relativ einfach zu zerlegen und von einem Server-Cluster verarbeiten zu lassen. (White, 2012, S ) Komponenten Das Hadoop Framework besteht aus drei Komponenten: 1. Hadoop Common beinhaltet die Grundfunktionen. Das bedeutet, es steuert die Zugriffe auf die darunterliegenden Filesysteme und enthält die nötigen Java Scripts um Hadoop zu starten. Weiter beinhaltet es den Sourcecode sowie alle Dokumentationen und Informationen zum Framework. (White, 2012, S ) 2. Hadoop Distributed File System (HDFS) ein hochverfügbares und leistungsfähiges Dateisystem, welches dem Anwender ermöglicht, grosse Datenmengen zu speichern. Nach Angaben der Entwickler, unterstützt werden Systeme mit bis zu 100 Millionen Dateien unterstützt. (White, 2012, S ) 3. MapReduce-Algorithmus, der von Google entwickelte Algorithmus bietet eine Engine welche Hadoop verschiedene Funktionen bereitstellt. Die Grundfunktion liegt darin, eine Rechenaufgabe in mehrere kleine Teile zu zerlegen, und auf verschiedene Rechner zu verteilen (Map), auf diesen Rechnern werden die Funktionen parallel ab-

16 Kapitel 4: Tools & Technologien 16 gearbeitet und die Ergebnisse wieder zusammengeführt (Reduce). (White, 2012, S ) Funktionsweise Das Common bietet den Rahmen um das gesamte Tool zu starten. Das HDFS figuriert als Cluster-Datei System welches alle beteiligten Rechner beinhaltet. Die zu verarbeitenden Daten werden auf die verschiedenen Systeme im Cluster verteilt. MapReduce dient in der Folge dazu die Daten an ihrem Ablageort parallel zu verarbeiten. Dies beschleunigt die Rechenarbeit und verringert den Netzdurchsatz. Grundsätzlich funktioniert das Dateisystems eines Hadoop-Clusters, nach dem Master- Slave-Prinzip. Der sogenannte Name Node übernimmt dabei die Rolle des Masters. Er ist nur einmal vorhanden, und verwaltet die Zugriffe auf das Dateisystem sowie alle Metadaten, Verzeichnisstrukturen und Dateien. Die effektiven Daten, werden in den Slaves, den sogenannten Data Nodes abgelegt. Damit es zu keinen Datenverlusten kommt, setzt man bei Hadoop auf eine Replikation der Dateien. Dabei werden die Dateien in einzelne Datenpakete zerlegt. Der Name Node, sorgt in der Folge dafür, dass alle Datenpakete verteilt werden und jedes Paket mehrfach vorhanden ist. Fällt nun ein Teil des Clusters aus, weiss der Name Node, an welcher Stelle die fehlenden Daten abgelegt sind. Jeder Data Node sendet regelmässig einen Heartbeat an den Name Node. Meldet sich ein Slave über eine vorgelegte Zeit nicht mehr, wird er nicht mehr verwendet, und der Master holt das Datenpaket von einem anderen Clustermitglied. Da der Name Node in jedem Cluster nur einmal vorkommt, stellt er den Singe Point of Failure dar. Um das Risiko zu minimieren, wird ein Secondary Name Node betrieben, welcher alle Veränderungen der Metadaten aufzeichnet und mit dessen Logfile sich ein Name Node jederzeit wiederherstellen lässt. (White, 2012, S ) Neben dem HDFS Layer, des Dateisystems, gibt es noch den MapReduce Layer, welcher die Verwaltung und Ausführung der Rechenaufgaben zuständig ist.

17 Kapitel 4: Tools & Technologien 17 Abb. 2: Map Reduce und HDFS Layer Quelle: Eigene Darstellung in Anlehnung an Markey, 2012 Analog zum Name Node im HDFS Layer, ist der Job Tracker im MapReduce Layer nur einmal vorhanden. Der Job Tracker verwaltet und verteilt die Jobs im Cluster und fungiert dabei als Master. Seine Slaves sind die Task Tracker welche beliebig oft möglich sind und die eigentliche Jobabwicklung übernehmen. Im Idealfall, befindet sich auf jedem Cluster- Knoten eine Task Tracker und eine Data Node Instanz. Ein grosser Vorteil, von Hadoop Clustern ist, dass sie sich mit Hilfe von Desktopcomputern, umsetzen lassen. Genau aus diesem Grund ist der Cluster auf grosse Redundanz ausgelegt, da bei Standardrechnern von mehr Hardwareausfällen auszugehen ist. Je nach Art und Umfang der Rechenaufgabe, kann der Cluster unterschiedlich dimensioniert werden. Als Betriebssystem für die Cluster-Knoten, wird von den Entwicklern Linux empfohlen. (White, 2012, S ) Nutzer von Hadoop Viele bekannte Internetfirmen benutzen Hadoop um ihre Daten effizienter zu verarbeiten. Facebook zum Beispiel nutzt das Hadoop-System für das Backup ihrer SQL-Datenbank sowie als Warehouse für Web-Analysen lagerten 30 Petabyte Daten im Hadoop Cluster von Facebook. Yahoo, das massgeblich an der Entwicklung von Hadoop beteiligt war, startete 2008 mit einem 10'000 Rechner starken Cluster um einen Index aller bekannten Websiten zu erstellen. Ebay betreibt ein 2'500 Rechner starken Hadoop-Cluster und gibt zu, dass inzwischen der Betrieb davon abhängt Hadoop-Produkte Hadoop ist eine frei erhältliche Software. Viele renommierte Softwarehersteller setzen in ihren Datenverarbeitungstool auf das Hadoop-Framework. Amazon.com bietet einen Hadoop Cluster zur Miete aus der Cloud an.

18 Kapitel 4: Tools & Technologien 18 IBM hat ihre Software zur Analyse unstrukturierter Daten (InfoSphere BigInsights) um die Hadoop-Technik erweitert und möchte ebenfalls einen Clouddienst anbieten. Oracle plant in seiner Appliance, einem speziell zur Verarbeitung von grossen Datenmengen ausgelegten System, das Hadoop-Framework zu verwenden. Microsoft möchte Hadoop in seiner Cloud-Plattform Azure sowie auf den Windows Servern unterstützen. Viele kleine Unternehmen bieten ebenfalls Dienstleistungen und Software rund um Hadoop an Alternativen Grundsätzlich hängt bei der Wahl eines richtigen Tools, alles davon ab wie viel Daten verarbeitet werden müssen. Bis zu einem Terrabyte Daten empfiehlt es sich ein normales SQL- Datenbankmanagementsystem zu verwenden. (Tucchio, 2013) Sind die zu verarbeitenden Daten jedoch grösser als ein Terrabyte, was bei vielen grösseren Unternehmen der Fall ist, gibt es nur noch wenige Alternativen zu Hadoop. Viele Projekte und Produkte setzen auf den MapReduce-Algorithmus. So zum Beispiel folgende: BashReduce, Spark, GraphLab oder HPCC. Diese Projekte oder Produkte haben sich jedoch bisher nicht gegen Hadoop durchgesetzt und deren Verbreitung ist sehr gering. Bei anderen Produkten ist nicht bekannt welchen Algorithmus sie benutzen so zum Beispiel Storm. (Hadoop Fatigue, 2011) Der grösste Vorteil, im Vergleich zu oben genannten Alternativen, den Hadoop mit sich bringt ist HDFS. Das Filesystem ist mit allen anderen Systemen kompatibel und hat eine hohe Fehlertoleranz. HDFS ist verlässlicher Weg um Daten zu speichern und mit anderen Daten Analyse Tools zu teilen. 4.2 SAP - HANA Projekt Hana ist der Name, einer von SAP entwickelten Appliance, welche die In-Memory Technologie verwendet. Da es sich um eine geschlossene Appliance handelt, kann Hard- und Software optimal aufeinander abgestimmt werden. Die In-Memory Technologie, welche sich dadurch auszeichnet, dass die Software grösstenteils im Arbeitsspeicher läuft, bringt deutliche Performancevorteile. Diese gute Performance ermöglicht dem Benutzer Real-Time Analysen und Statistiken Funktionsweise Die Entwickler von Hana haben versucht sich der heutigen Computer Architektur anzupassen. Sie haben sich in erster Linie darauf konzentriert Flaschenhälse zu verhindern. In der

19 Kapitel 4: Tools & Technologien 19 Vergangenheit, lag der Flaschenhals bei der Festplatte, da diese nicht genug schnell schreiben konnte. Im Jahr 2012 wurde bereits Server mit mehr als 2 Terrabyte RAM und 80 Prozessorkernen verkauft. Diese Entwicklung macht eine Festplatte für Verarbeitung-Server (im Gegensatz du Datenservern) praktisch überflüssig. Bei der In-Memory Technologie werden die Rechenaufgaben direkt im Arbeitsspeicher abgearbeitet. Der Kern der Appliance ist ebendiese spaltenorientierte In-Memory Datenbank. Ausserdem vereint HANA die transaktionale (OLTP) und analytische (OLAP) Welt. Abb. 3: OLTP vs OLAP Quelle: Arias E. (2011) Dies bedeutet, dass aus einer zielorientierten relationalen Datenbank, in welcher die Daten aus den transaktionalen Systemen wie ERP und CRM zusammenfliessen, und einem Data Warehouse als separates Reporting System für analytische Aufgaben alles in einem System zusammengefasst wird. Das bringt enorme Performancevorteile, da die Daten nicht mehr Repliziert werden müssen und die Analysen direkt auf den transaktionalen Daten ablaufen. Diese Lesezugriffe funktionieren in einer spaltenorientierten Datenbank schneller, da nicht mehr alle Zeilen eingelesen werden müssen. Um dem Problem mit der Flüchtigkeit der Daten im Memory zu begegnen, werden alle Daten parallel auf Disk geschrieben. Im Moment ist Hana nur als Appliance, also als vorkonfiguriertes Paket aus Hardware und Software, erhältlich. Der Quellcode ist für die Intel-Plattform optimiert. In Zukunft sollen die Kunden ihre Hardware auch selber aussuchen können. Zusätzlich können die Appliances in einem Cluster miteinander verbunden werden, damit die Rechenaufgaben ähnlich wie beim MapReduce-Algorithmus auf verschiedene Rechner verteilt werden können. (SAP Hana, 2012)

20 Kapitel 4: Tools & Technologien TB Benchmark System Ein neues Benchmark System, von SAP HANA ist mit 4000 Prozessorkernen und 100 Terrabyte Hauptspeicher ausgestattet. Damit wird bei einer Anfrage an eine 500-Terrabyte Datenbank eine Antwortzeit von 600 Millisekunden realisiert. Dies ermöglicht grosse Datenmengen in Echtzeit auszuwerten und zu analysieren. (SAP Hana Performance, 2012) 4.3 in der Cloud in der Cloud, ermöglicht durch die Auswertung von Massendaten den Gewinn von branchenübergreifenden und unabhängigen Erkenntnissen. Das verlagern in die Cloud, ermöglicht die Speicherung und unabhängige Verfügbarkeit von Daten. Cloud Computing ist gleichzeitig Treiber und Lösungstechnologie für den Umgang mit. Als Folge der zunehmenden Fülle an Anforderungen, entscheiden sich immer mehr Unternehmen ihre Infrastrukturen vollständig oder teilweise an externe Dienstleister auszulagern. Die Schwierigkeit liegt häufig darin, die Daten verfügbar, sicher und verwendbar zu halten, dafür benötigt man umfassende Massnahmen und hochmoderne Technologien. Diesen Anforderungen sind die wenigsten Unternehmen gewachsen. Vor allem nicht rund um die Uhr. Aus diesem Grund ist die Verlagerung der Daten und Anwendungen in eine Cloud häufig das effizienteste Vorgehen. Dabei ist es sehr wichtig, dass die Sicherheit und Verfügbarkeit der Daten gewährleistet ist. Als Unternehmen benötigt man grosses Vertrauen in den Cloud- Anbieter. Der Provider muss auf der anderen Seite über zukunftssichere und performante Systeme verfügen, um die flexible Infrastruktur zu gewährleisten. Neben dem Thema des Datenmissbrauchs, ist auch immer der Kontrollverlust ein Thema. Besonders die Echtzeitanalyse der gespeicherten Daten bringt einen enormen Mehrwert für das Business. Diese Informationen kann ein Unternehmen gezielt abrufen und damit schneller auf Markt- und Kundenanforderungen reagieren. Ein weiterer Faktor, der beim Thema Sicherheit vernachlässigt wird, ist die Gefahr des Datenmissbrauchs und Kontrollverlustes. Aufgrund der unkontrollierbaren Vermehrung von Informationen gerade im Bereich Web 2.0 müssen Anbieter äußerst sensibel darauf achten, dass die Auswertung ausschließlich anonymisiert erfolgt und einer Überprüfung durch Datenschutzbeauftrage von Bund oder Ländern jederzeit standhält. Eine Zuordnung entsprechender Daten zu einer Person darf zu keiner Zeit möglich sein. Daher muss der Datenschutz bereits im Design der Lösung vorhanden sein.

21 Kapitel 5: Chancen & Gefahren 21 5 Chancen & Gefahren Aufgrund der enormen Datenexplosion in den letzten Jahren und Jahrzenten gibt es heute eine riesige Fülle an strukturierten als auch unstrukturierter Daten. In der Vergangenheit konnten hauptsächlich die strukturierten Daten automatisch mithilfe von Programmen und Modellen verarbeitet und analysiert werden. Im Unterschied zu den konventionellen Methoden können nun mit den Technologien auch unstrukturierte Daten automatisch und nahezu in Echtzeit verarbeitet und analysiert werden. Diese neue Big-Data-Technologien beinhalten Chancen sowie Herausforderungen die in diesem Kapitel näher beschrieben sind. 5.1 Chancen In Anbetracht der Verarbeitung und Analyse grösserer Mengen an Daten in einer kürzeren Zeit, eröffnen sich vielseitige Chancen, damit sich Unternehmen unter Einbezug bislang unzugänglicher Informationen besser den Marktanforderungen anpassen können. Es gilt die Wünsche der Kunden von den Daten - statt den Augen abzulesen. (BITKOM, 2012, S. 14) Tabelle 1 zeigt Chancen für Unternehmen die im Zusammenhang mit dem Einsatz von Big Data Technologien genannt werden. Besonders jene Chancen, die in Verbindung zu Big Data und im Vergleich zu konventionellen Technologien zur Datenanalyse verwendet werden einen Mehrwert erzeugen, sind aufgeführt. Aspekt Prozessoptimierung Compliance Erläuterung Die Voraussetzung für die Prozessoptimierung ist ein fortgeschrittenes Datenmanagement, das Informationen in Echtzeit bereitstellt, um völlig neue Geschäftsprozesse abzuleiten. (BITKOM, 2012, S. 14) Die erhöhte Komplexität und die wachsende Menge an Daten erhöhen die Anforderungen an die Compliance. Um diesen Anforderungen gerecht zu werden, ist es umso wichtiger ein transparentes Datenmanagement zusammen mit einer detaillierten und zeitnahen Analyse vorgeschriebener Informationen aufzubauen, welches das Einhalten von regulatorischen Anforderungen erleichtert.(bitkom, 2012, S. 14) Kundenkenntnis Mit der Analyse von Kundendaten können leichter Kundensegmente erstellt werden und das Verhalten von Kunden an-

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data Herausforderungen und Chancen für Controller ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC BARC: Expertise für datengetriebene Organisationen Beratung Strategie

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data: Nutzen und Anwendungsszenarien CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data steht für den unaufhaltsamen Trend, dass immer mehr Daten in Unternehmen anfallen und von

Mehr

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15 9.30 10.15 Kaffee & Registrierung 10.15 10.45 Begrüßung & aktuelle Entwicklungen bei QUNIS 10.45 11.15 11.15 11.45 Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics

Mehr

Die Cloud, die für Ihr Unternehmen geschaffen wurde.

Die Cloud, die für Ihr Unternehmen geschaffen wurde. Die Cloud, die für Ihr Unternehmen geschaffen wurde. Das ist die Microsoft Cloud. Jedes Unternehmen ist einzigartig. Ganz gleich, ob im Gesundheitssektor oder im Einzelhandel, in der Fertigung oder im

Mehr

Big Data Mythen und Fakten

Big Data Mythen und Fakten Big Data Mythen und Fakten Mario Meir-Huber Research Analyst, IDC Copyright IDC. Reproduction is forbidden unless authorized. All rights reserved. About me Research Analyst @ IDC Author verschiedener IT-Fachbücher

Mehr

SAS Analytics bringt SAP HANA in den Fachbereich

SAS Analytics bringt SAP HANA in den Fachbereich Pressemitteilung Hamburg, 08. November 2013 SAS Analytics bringt SAP HANA in den Fachbereich Ergonomie kombiniert mit Leistungsfähigkeit: die BI-Experten der accantec group geben der neuen Partnerschaft

Mehr

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd.

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd. Warum viele Daten für ein smartes Unternehmen wichtig sind Gerald AUFMUTH IBM Client Technical Specialst Data Warehouse Professional Explosionsartige Zunahme an Informationen Volumen. 15 Petabyte Menge

Mehr

Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie

Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie BIG DATA Future Opportunities and Challanges in the German Industry Zusammenfassung Die Menge der verfügbaren

Mehr

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 0 Es TOP 10 DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 wird ein wichtiges Jahr für BIG (Business Intelligence Growth) 2012 war ein fantastisches Jahr für Business Intelligence! Die biedere alte

Mehr

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit Big Data und Business Analytics für Kunden und Unternehmen Umfangreiche und ständig anwachsende Datenvolumen verändern die Art und Weise, wie in zahlreichen Branchen Geschäfte abgewickelt werden. Da immer

Mehr

Die richtige Cloud für Ihr Unternehmen.

Die richtige Cloud für Ihr Unternehmen. Die richtige Cloud für Ihr Unternehmen. Das ist die Microsoft Cloud. Jedes einzelne Unternehmen ist einzigartig. Ob Gesundheitswesen oder Einzelhandel, Produktion oder Finanzwesen keine zwei Unternehmen

Mehr

your IT in line with your Business Geschäftsprozessmanagement (GPM)

your IT in line with your Business Geschäftsprozessmanagement (GPM) your IT in line with your Business Geschäftsprozessmanagement (GPM) Transparenz schaffen und Unternehmensziele effizient erreichen Transparente Prozesse für mehr Entscheidungssicherheit Konsequente Ausrichtung

Mehr

Möglichkeiten für bestehende Systeme

Möglichkeiten für bestehende Systeme Möglichkeiten für bestehende Systeme Marko Filler Bitterfeld, 27.08.2015 2015 GISA GmbH Leipziger Chaussee 191 a 06112 Halle (Saale) www.gisa.de Agenda Gegenüberstellung Data Warehouse Big Data Einsatz-

Mehr

Datability. Prof. Dieter Kempf, Präsident BITKOM Oliver Frese, Vorstand Deutsche Messe AG. Hannover, 9. März 2014

Datability. Prof. Dieter Kempf, Präsident BITKOM Oliver Frese, Vorstand Deutsche Messe AG. Hannover, 9. März 2014 Datability Prof. Dieter Kempf, Präsident BITKOM Oliver Frese, Vorstand Deutsche Messe AG Hannover, 9. März 2014 Bürger fordern verantwortungsvollen Umgang mit Daten Inwieweit stimmen Sie den folgenden

Mehr

EMC. Data Lake Foundation

EMC. Data Lake Foundation EMC Data Lake Foundation 180 Wachstum unstrukturierter Daten 75% 78% 80% 71 EB 106 EB 133 EB Weltweit gelieferte Gesamtkapazität Unstrukturierte Daten Quelle März 2014, IDC Structured vs. Unstructured

Mehr

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht Big-Data-Technologien - Überblick - Quelle: http://www.ingenieur.de/panorama/fussball-wm-in-brasilien/elektronischer-fussball-smartphone-app-helfen-training Big-Data-Anwendungen im Unternehmen Logistik

Mehr

DWH Szenarien. www.syntegris.de

DWH Szenarien. www.syntegris.de DWH Szenarien www.syntegris.de Übersicht Syntegris Unser Synhaus. Alles unter einem Dach! Übersicht Data-Warehouse und BI Projekte und Kompetenzen für skalierbare BI-Systeme. Vom Reporting auf operativen

Mehr

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired make connections share ideas be inspired Data Guido Oswald Solution Architect @SAS Switzerland BIG Data.. Wer? BIG Data.. Wer? Wikipedia sagt: Als Big Data werden besonders große Datenmengen bezeichnet,

Mehr

Preismodell, Roadmap, Vorteile SAP HANA im Analystenurteil

Preismodell, Roadmap, Vorteile SAP HANA im Analystenurteil Preismodell, Roadmap, Vorteile SAP HANA im Analystenurteil von Frank Niemann, Philip Carnelley, Tobias Ortwein Foto: PAC Seite 1 von 6 Inhalt Die Folgen für Oracle und IBM... 3 Neues ERP-Preismodell treibt

Mehr

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen 01000111101001110111001100110110011001 Volumen 10 x Steigerung des Datenvolumens alle fünf Jahre Big Data Entstehung

Mehr

Infografik Business Intelligence

Infografik Business Intelligence Infografik Business Intelligence Top 5 Ziele 1 Top 5 Probleme 3 Im Geschäft bleiben 77% Komplexität 28,6% Vertrauen in Zahlen sicherstellen 76% Anforderungsdefinitionen 24,9% Wirtschaflicher Ressourceneinsatz

Mehr

Zeitgemäße Verfahren für ganzheitliche Auswertungen

Zeitgemäße Verfahren für ganzheitliche Auswertungen Intelligente Vernetzung von Unternehmensbereichen Zeitgemäße Verfahren für ganzheitliche Auswertungen Sächsische Industrie- und Technologiemesse Chemnitz, 27. Juni 2012, Markus Blum 2012 TIQ Solutions

Mehr

Integration mit Service Repositories zur SOA Governance

Integration mit Service Repositories zur SOA Governance Integration mit Service Repositories zur SOA Governance Nürnberg, 10.11.2009 I N H A L T 1. SOA Governance 2. Service Repository 3. Modelle und Service Repository 4. Modell-Driven SOA I N H A L T 1. SOA

Mehr

Master-Thesis (m/w) für unseren Standort Stuttgart

Master-Thesis (m/w) für unseren Standort Stuttgart Master-Thesis (m/w) für unseren Standort Abschlussarbeit im Bereich Business Process Management (BPM) Effizienzsteigerung von Enterprise Architecture Management durch Einsatz von Kennzahlen Braincourt

Mehr

HYBRID CLOUD IN DEUTSCHLAND 2015/16

HYBRID CLOUD IN DEUTSCHLAND 2015/16 Fallstudie: IBM Deutschland GmbH IDC Multi-Client-Projekt HYBRID CLOUD IN DEUTSCHLAND 2015/16 Mit hybriden IT-Landschaften zur Digitalen Transformation? IBM DEUTSCHLAND GMBH Fallstudie: Panasonic Europe

Mehr

HYBRID CLOUD IN DEUTSCHLAND 2015/16

HYBRID CLOUD IN DEUTSCHLAND 2015/16 Fallstudie: Microsoft Deutschland GmbH IDC Multi-Client-Projekt HYBRID CLOUD IN DEUTSCHLAND 2015/16 Mit hybriden IT-Landschaften zur Digitalen Transformation? MICROSOFT DEUTSCHLAND GMBH Fallstudie: Telefónica

Mehr

Governance, Risk & Compliance für den Mittelstand

Governance, Risk & Compliance für den Mittelstand Governance, Risk & Compliance für den Mittelstand Die Bedeutung von Steuerungs- und Kontrollsystemen nimmt auch für Unternehmen aus dem Mittelstand ständig zu. Der Aufwand für eine effiziente und effektive

Mehr

Foto: violetkaipa - Fotolia

Foto: violetkaipa - Fotolia Die D kön Foto: violetkaipa - Fotolia 10 IT-Trend Big Data atenflut steigt wie nen wir sie nutzen? Ständig erhöht sich die Masse der uns umgebenden Daten, Informationen werden immer schneller generiert.

Mehr

Einladung zu den IBM SPSS Data und Text Mining Tagen. Auch in Ihrer Nähe! Gewinnen Sie entscheidungsrelevantes Wissen mit Data und Text Mining

Einladung zu den IBM SPSS Data und Text Mining Tagen. Auch in Ihrer Nähe! Gewinnen Sie entscheidungsrelevantes Wissen mit Data und Text Mining Einladung zu den IBM SPSS Data und Text Mining Tagen Auch in Ihrer Nähe! Gewinnen Sie entscheidungsrelevantes Wissen mit Data und Text Mining Lassen Sie Daten und Texte für sich arbeiten mit Smarter Analytics

Mehr

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zettabyte CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zetabyte: analytische Datenbanken Die Datenflut. Analytische Datenbanken: Was ist neu? Analytische Datenbanken:

Mehr

Microsoft Cloud Ihr Weg in die Cloud

Microsoft Cloud Ihr Weg in die Cloud Microsoft Cloud Ihr Weg in die Cloud Komfort Informationen flexibler Arbeitsort IT-Ressourcen IT-Ausstattung Kommunikation mobile Endgeräte Individualität Mobilität und Cloud sind erfolgsentscheidend für

Mehr

Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise

Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise Software AG Innovation Day 2014 Bonn, 2.7.2014 Dr. Carsten Bange, Geschäftsführer Business Application Research Center

Mehr

SAP HANA eine Plattform für innovative Anwendungen

SAP HANA eine Plattform für innovative Anwendungen SAP HANA eine Plattform für innovative Anwendungen Top Intelligence: Big Data & SAP HANA Zürich, Frankfurt, Hamburg, München, Mülheim/R Februar 2014 Dr. Wolfgang Martin Analyst und Mitglied im Boulder

Mehr

BIG DATA - BIG OPPORTUNITIES

BIG DATA - BIG OPPORTUNITIES BIG DATA - BIG OPPORTUNITIES eday: 2014 Wien, 6. März 2014 EBA Executive Business Advice GmbH 1120 Wien, Am Euro Platz 2, Gebäude G Tel.: +43 1 71728 172 Email: office@eba-business.at www.eba-business.at

Mehr

plain it Sie wirken mit

plain it Sie wirken mit Sie wirken mit Was heisst "strategiewirksame IT"? Während früher die Erhöhung der Verarbeitungseffizienz im Vordergrund stand, müssen IT-Investitionen heute einen messbaren Beitrag an den Unternehmenserfolg

Mehr

W.WIINM32.11 (Datawarehousing) W.WIMAT03.13 (Statistik)

W.WIINM32.11 (Datawarehousing) W.WIMAT03.13 (Statistik) Modulbeschrieb Business Intelligence and Analytics 16.10.2013 Seite 1/5 Modulcode Leitidee Art der Ausbildung Studiengang Modultyp W.WIINM42.13 Information ist eine derart wichtige Komponente bei der Entscheidungsfindung,

Mehr

Analytisches CRM in der Automobilindustrie

Analytisches CRM in der Automobilindustrie Analytisches CRM in der Automobilindustrie Dr. Frank Säuberlich Practice Manager European Customer Solutions Urban Science International GmbH Automobilhersteller müssen neue Wege gehen Anforderungen in

Mehr

IDV Assessment- und Migration Factory für Banken und Versicherungen

IDV Assessment- und Migration Factory für Banken und Versicherungen IDV Assessment- und Migration Factory für Banken und Versicherungen Erfassung, Analyse und Migration von Excel- und AccessAnwendungen als User-Selfservice. Sind Ihre Excel- und Access- Anwendungen ein

Mehr

Big Data Herausforderungen für Rechenzentren

Big Data Herausforderungen für Rechenzentren FINANCIAL INSTITUTIONS ENERGY INFRASTRUCTURE, MINING AND COMMODITIES TRANSPORT TECHNOLOGY AND INNOVATION PHARMACEUTICALS AND LIFE SCIENCES Big Data Herausforderungen für Rechenzentren RA Dr. Flemming Moos

Mehr

Wir befinden uns inmitten einer Zeit des Wandels.

Wir befinden uns inmitten einer Zeit des Wandels. Wir befinden uns inmitten einer Zeit des Wandels. Geräte Apps Ein Wandel, der von mehreren Trends getrieben wird Big Data Cloud Geräte Mitarbeiter in die Lage versetzen, von überall zu arbeiten Apps Modernisieren

Mehr

Make your day a sales day

Make your day a sales day Make your day a sales day Axivas Group Axivas IT Solutions I C T M a n a g e m e n t S a l e s P o r t a l S o f t w a r e Ihr Technologiepartner für Marketing- und Vertrieb. S y s t e m I n t e g r a

Mehr

Copyr i g ht 2014, SAS Ins titut e Inc. All rights res er ve d. HERZLICH WILLKOMMEN ZUR VERANSTALTUNG VISUAL ANALYTICS

Copyr i g ht 2014, SAS Ins titut e Inc. All rights res er ve d. HERZLICH WILLKOMMEN ZUR VERANSTALTUNG VISUAL ANALYTICS HERZLICH WILLKOMMEN ZUR VERANSTALTUNG VISUAL ANALYTICS AGENDA VISUAL ANALYTICS 9:00 09:30 Das datengetriebene Unternehmen: Big Data Analytics mit SAS die digitale Transformation: Handlungsfelder für IT

Mehr

Prozess- und Datenmanagement Kein Prozess ohne Daten

Prozess- und Datenmanagement Kein Prozess ohne Daten Prozess- und Datenmanagement Kein Prozess ohne Daten Frankfurt, Juni 2013 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust Prozess- und Datenmanagement Erfolgreiche Unternehmen sind Prozessorientiert.

Mehr

The Day in the Life of a Business Manager @ Microsoft

The Day in the Life of a Business Manager @ Microsoft The Day in the Life of a Business Manager @ Microsoft A look at analytics in action inside Microsoft Frank.Stolley@Microsoft.com Daniel.Weinmann@microsoft.com Microsoft Deutschland GmbH Big Data: Die Management-Revolution?

Mehr

Thementisch Anwendungsgebiete und

Thementisch Anwendungsgebiete und Thementisch Anwendungsgebiete und b Erfolgsgeschichten KMUs und Big Data Wien 08. Juni 2015 Hermann b Stern, Know-Center www.know-center.at Know-Center GmbH Know-Center Research Center for Data-driven

Mehr

Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence

Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence IBM Netezza Roadshow 30. November 2011 Carsten Bange Gründer & Geschäftsführer BARC Die Krise hat die Anforderungen

Mehr

arvato systems Technologies GmbH partner erstklassige microsoft lösungen? machen wir.

arvato systems Technologies GmbH partner erstklassige microsoft lösungen? machen wir. arvato systems Technologies GmbH partner erstklassige microsoft lösungen? it mit augenmass? Sie wünschen sich integrierte Prozesse unterstützt von zukunftsweisenden IT-Lösungen, um neue Herausforderungen

Mehr

Wird BIG DATA die Welt verändern?

Wird BIG DATA die Welt verändern? Wird BIG DATA die Welt verändern? Frankfurt, Juni 2013 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust Big Data Entmythisierung von Big Data. Was man über Big Data wissen sollte. Wie

Mehr

Open Source BI Trends. 11. Dezember 2009 Wien Konstantin Böhm

Open Source BI Trends. 11. Dezember 2009 Wien Konstantin Böhm Open Source BI Trends 11. Dezember 2009 Wien Konstantin Böhm Profil Folie 2 JAX 2009 11.12.2009 Gründung 2002, Nürnberg 50 Mitarbeiter Innovative Kunden Spezialisiert auf Open Source Integration Open Source

Mehr

Positionspapier Big Data

Positionspapier Big Data TeleTrusT-interner Workshop Berlin, 05.06.2014 Positionspapier Big Data Oliver Dehning, antispameurope GmbH Leiter der AG Cloud Security Definition Big Data Big Data bezeichnet große Datenmengen (Volume)

Mehr

Sichere IT-Lösungen. Aus Aachen. Seit über 15 Jahren.

Sichere IT-Lösungen. Aus Aachen. Seit über 15 Jahren. Sichere IT-Lösungen. Aus Aachen. Seit über 15 Jahren. ÜBER UNS Gründung: 2000 in Aachen, Deutschland Gründer: Thomas Wiegand Geschäftsführer: David Bergstein Heutiger Standort: Stolberg, Deutschland Partnerschaften:

Mehr

Die Schlüssel-Lösung zur Ertragssteigerung: Enterprise PROduction Management E PROMI datenbasierte Entscheidungsunterstützung mit integrierter

Die Schlüssel-Lösung zur Ertragssteigerung: Enterprise PROduction Management E PROMI datenbasierte Entscheidungsunterstützung mit integrierter Korrekte Entscheidungen für Qualität und Produktivität effizient finden und treffen Die Schlüssel-Lösung zur Ertragssteigerung: Enterprise PROduction Management E PROMI datenbasierte Entscheidungsunterstützung

Mehr

DRIVE LIKE A VIRTUAL DEVELOPER Die Poleposition für Ihre Softwareentwicklung

DRIVE LIKE A VIRTUAL DEVELOPER Die Poleposition für Ihre Softwareentwicklung DRIVE LIKE A VIRTUAL DEVELOPER Die Poleposition für Ihre Softwareentwicklung Was für ein Tempo! Das Rad dreht sich rasant schnell: Die heutigen Anforderungen an Softwareentwicklung sind hoch und werden

Mehr

Big Data in der Forschung

Big Data in der Forschung Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die

Mehr

BIG DATA Impulse für ein neues Denken!

BIG DATA Impulse für ein neues Denken! BIG DATA Impulse für ein neues Denken! Wien, Januar 2014 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust The Age of Analytics In the Age of Analytics, as products and services become

Mehr

Roche Diagnostics Service Oft sind es die kleinen Dinge, die Großes bewegen

Roche Diagnostics Service Oft sind es die kleinen Dinge, die Großes bewegen Roche Diagnostics Service Oft sind es die kleinen Dinge, die Großes bewegen 2 Was wir glauben Roche ist ein weltweit führendes Unternehmen im Bereich der Diagnostik. Wir konzentrieren uns darauf, medizinisch

Mehr

Social-CRM (SCRM) im Überblick

Social-CRM (SCRM) im Überblick Social-CRM (SCRM) im Überblick In der heutigen Zeit ist es kaum vorstellbar ohne Kommunikationsplattformen wie Facebook, Google, Twitter und LinkedIn auszukommen. Dies betrifft nicht nur Privatpersonen

Mehr

Big Data Hype und Wirklichkeit Bringtmehrauchmehr?

Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Günther Stürner, Vice President Sales Consulting 1 Copyright 2011, Oracle and/or its affiliates. All rights Überschrift 2 Copyright 2011, Oracle and/or

Mehr

Tieto Deutschland. Für Ihren Erfolg

Tieto Deutschland. Für Ihren Erfolg Tieto Deutschland Für Ihren Erfolg Tieto Deutschland Der Kunde steht im Mittelpunkt Tieto bietet Services für die Bereiche IT, R&D und Consulting. Mit 18.000 Experten gehören wir zu den größten IT Dienstleistern

Mehr

Auswirkungen der Cloud auf Ihre Organisation So managen Sie erfolgreich den Weg in die Cloud

Auswirkungen der Cloud auf Ihre Organisation So managen Sie erfolgreich den Weg in die Cloud Die Cloud Auswirkungen der Cloud auf Ihre Organisation So managen Sie erfolgreich den Weg in die Cloud Die Auswirkungen und Aspekte von Cloud-Lösungen verstehen Cloud-Lösungen bieten Unternehmen die Möglichkeit,

Mehr

Bringt Ihre IT auf den Punkt.

Bringt Ihre IT auf den Punkt. Bringt Ihre IT auf den Punkt. Keep it simple, but smart Streamo IT-Consulting bietet Ihnen die Leistungen, das Wissen und die Möglichkeiten, die Sie für Ihre IT brauchen: auf hohem Niveau, mit kurzen

Mehr

Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick. Volker.Hinz@microsoft.com

Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick. Volker.Hinz@microsoft.com Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick Volker.Hinz@microsoft.com Was sagt der Markt? Fakten Meinung der Analysten zu Microsofts Angeboten Nutzen

Mehr

R im Enterprise-Modus

R im Enterprise-Modus R im Enterprise-Modus Skalierbarkeit, Support und unternehmensweiter Einsatz Dr. Eike Nicklas HMS Konferenz 2014 Was ist R? R is a free software environment for statistical computing and graphics - www.r-project.org

Mehr

Bessere Daten durch Stammdatenmanagement

Bessere Daten durch Stammdatenmanagement make connections share ideas be inspired Bessere Daten durch Stammdatenmanagement Mit SAS MDM, bessere Stammdaten für operativen Systeme make connections share ideas be inspired Overview Mit SAS MDM bessere

Mehr

Der Digital Business Index (DBI)

Der Digital Business Index (DBI) Der Digital Business Index (DBI) Modell zur Erfassung der digitalen Reife und strategischer Kompass zur Sicherung der Wettbewerbsfähigkeit ihres Unternehmens ideers Consulting GmbH Warum bedarf es eines

Mehr

overheat 5 Usability Aspekte für eine bessere Nutzerführung Whitepaper Usability Inhalt: www.overheat.de T: +49 (0) 2263 7149480 E: info@overheat.

overheat 5 Usability Aspekte für eine bessere Nutzerführung Whitepaper Usability Inhalt: www.overheat.de T: +49 (0) 2263 7149480 E: info@overheat. www.overheat.de T: +49 (0) 2263 7149480 E: info@overheat.de Whitepaper Usability 5 Usability Aspekte für eine bessere Nutzerführung Inhalt: 1. Vorwort 2. Das macht eine gute Usability aus 3. Fünf Usability

Mehr

BIG DATA ANALYTICS STATUS QUO VADIS

BIG DATA ANALYTICS STATUS QUO VADIS Heading BIG DATA ANALYTICS STATUS QUO VADIS Name, Position Reiner Pistorius 17.03.2016 1 18.03.2016 1 Willkommen, Vorstellung, Warm up 2 Definition Big Data 3 Einsatz in Unternehmen heute 4 Künftige Entwicklung,

Mehr

Power. Erfolg & Seite 1

Power. Erfolg & Seite 1 Mehr Power Erfolg & Seite 1 Vorwort TELSAMAX ist eine moderne Unternehmensberatung in der Nähe von Frankfurt am Main. Durch die Zusammenarbeit mit uns, nutzen Sie unsere Kernkompetenzen in den Bereichen

Mehr

ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE. NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik

ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE. NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik ARFA ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik Ralf Leipner Domain Architect Analytics, Risk Management & Finance 33. Berner Architekten

Mehr

... 64 bit Televaulting

... 64 bit Televaulting Next Generation Backup und Recovery Software... 64 bit Televaulting Kronberg, 07. Mai 2007 Asigra, der Technologieführer im Bereich agentless Backup und Recovery- für Unternehmen und Service Provider,

Mehr

Storage-Trends am LRZ. Dr. Christoph Biardzki

Storage-Trends am LRZ. Dr. Christoph Biardzki Storage-Trends am LRZ Dr. Christoph Biardzki 1 Über das Leibniz-Rechenzentrum (LRZ) Seit 50 Jahren Rechenzentrum der Bayerischen Akademie der Wissenschaften IT-Dienstleister für Münchner Universitäten

Mehr

Big Data Vom Hype zum Geschäftsnutzen

Big Data Vom Hype zum Geschäftsnutzen Big Data Vom Hype zum Geschäftsnutzen IBM IM Forum, Berlin, 16.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Hype 15.04.2013 BARC 2013 2 1 Interesse an Big Data Nature 09-2008 Economist 03-2010

Mehr

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller Was ist? Hannover, CeBIT 2014 Patrick Keller Business Application Research Center Historie 1994: Beginn der Untersuchung von Business-Intelligence-Software am Lehrstuhl Wirtschaftsinformatik der Universität

Mehr

Richtlinie zur Informationssicherheit T-Systems Multimedia Solutions

Richtlinie zur Informationssicherheit T-Systems Multimedia Solutions Richtlinie zur Informationssicherheit T-Systems Multimedia Solutions Autor: Frank Schönefeld Gültig ab: 23.03.2015 / Ersetzte Ausgabe: 29.05.2012 Seite 1 von 5 Vorwort Unsere Kunden und Beschäftigten müssen

Mehr

DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG

DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG Inhalt Globale und unternehmensspezifische Herausforderungen Von Big Data zu Smart Data Herausforderungen und Mehrwert von Smart Data 2

Mehr

Profil. The Remote In-Sourcing Company. www.intetics.com

Profil. The Remote In-Sourcing Company. www.intetics.com The Remote In-Sourcing Company Profil Für weitere Informationen senden Sie uns bitte eine E-Mail an: contact@intetics.com oder rufen Sie uns bitte an: +49-211-3878-9350 Intetics erstellt und betreibt verteilte

Mehr

Heute entdecken, was den Kunden morgen begeistert.

Heute entdecken, was den Kunden morgen begeistert. Consulting Heute entdecken, was den Kunden morgen begeistert. Mit effizienten Tools Innovationen schaffen und Kunden gewinnen. Eine Kooperation zwischen MBtech Consulting und dem Spiegel Institut Mannheim

Mehr

Mehr als Cloud Computing. force : cloud

Mehr als Cloud Computing. force : cloud Mehr als Cloud Computing force : cloud Force Net Mehr als ein IT-Unternehmen Force Net ist ein Infrastruktur- und Cloud-Service-Provider, der die Lücke zwischen interner und externer IT schließt. Force

Mehr

Virtual Roundtable: Business Intelligence - Trends

Virtual Roundtable: Business Intelligence - Trends Virtueller Roundtable Aktuelle Trends im Business Intelligence in Kooperation mit BARC und dem Institut für Business Intelligence (IBI) Teilnehmer: Prof. Dr. Rainer Bischoff Organisation: Fachbereich Wirtschaftsinformatik,

Mehr

IT IM FOCUS. bes-systemhaus.de

IT IM FOCUS. bes-systemhaus.de IT IM FOCUS. bes-systemhaus.de POTENZIALE AUFZEIGEN. VERANTWORTUNGSVOLL HANDELN. Die Zukunft beginnt hier und jetzt. Unsere moderne Geschäftswelt befindet sich in einem steten Wandel. Kaum etwas hat sich

Mehr

Business Intelligence. Bereit für bessere Entscheidungen

Business Intelligence. Bereit für bessere Entscheidungen Business Intelligence Bereit für bessere Entscheidungen Business Intelligence Besserer Einblick in Geschäftsabläufe Business Intelligence ist die Integration von Strategien, Prozessen und Technologien,

Mehr

Virtual Roundtable: Business Intelligence - Trends

Virtual Roundtable: Business Intelligence - Trends Virtueller Roundtable Aktuelle Trends im Business Intelligence in Kooperation mit BARC und dem Institut für Business Intelligence (IBI) Teilnehmer: Andreas Seufert Organisation: Institut für Business Intelligence

Mehr

GIS im Spannungsfeld zwischen Consumer und Business Märkten

GIS im Spannungsfeld zwischen Consumer und Business Märkten GIS im Spannungsfeld zwischen Consumer und Business Märkten Diese Unterlagen sind nur im Zusammenhang mit dem mündlichen Vortrag vollständig. Die isolierte Nutzung einzelner Darstellungen kann zu Missverständnissen

Mehr

Echtzeiterkennung von Cyber-Angriffen auf IT-Infrastrukturen. Frank Irnich SAP Deutschland

Echtzeiterkennung von Cyber-Angriffen auf IT-Infrastrukturen. Frank Irnich SAP Deutschland Echtzeiterkennung von Cyber-Angriffen auf IT-Infrastrukturen Frank Irnich SAP Deutschland SAP ist ein globales Unternehmen... unser Fokusgebiet... IT Security für... 1 globales Netzwerk > 70 Länder, >

Mehr

Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC. Alexander Scholz

Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC. Alexander Scholz Hochverfügbar und Skalierung mit und ohne RAC Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC Alexander Scholz Copyright its-people Alexander Scholz 1 Einleitung Hochverfügbarkeit

Mehr

Interview zum Thema Management Reporting &Business Intelligence

Interview zum Thema Management Reporting &Business Intelligence Interview zum Thema Management Reporting &Business Intelligence Das ist ja interessant. Können Sie etwas näher beschreiben, wie ich mir das vorstellen kann? Jens Gräf: In einem Technologieunternehmen mit

Mehr

Oracle Database 10g Die RAC Evolution

Oracle Database 10g Die RAC Evolution Oracle Database 10g Die RAC Evolution Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 RAC-Revolution, RAC-Evolution & Computing Oracle8i mit OPS Oracle9i Rel.

Mehr

In-Memory Analytics. Marcel Poltermann. Fachhochschule Erfurt. Informationsmanagement

In-Memory Analytics. Marcel Poltermann. Fachhochschule Erfurt. Informationsmanagement Marcel Poltermann Fachhochschule Erfurt Informationsmanagement Inhaltsverzeichnis Glossar...III Abbildungsverzeichnis...III 1 Erläuterung:... 2 2 Technische Grundlagen... 2 2.1 Zugriff physische Datenträger:...

Mehr

Was unsere Kunden sagen:

Was unsere Kunden sagen: social media Was unsere Kunden sagen:» Für uns als 4*Superior Haus ist es wichtig in der großen Social-Media-Welt präsent zu sein und im ständigen Dialog mit unseren Gästen zu bleiben. Die vioma liefert

Mehr

Industrial Data Intelligence. Datenbasierte Produktionsoptimierung

Industrial Data Intelligence. Datenbasierte Produktionsoptimierung !DI Industrial Data Intelligence Datenbasierte Produktionsoptimierung Industrial Data Intelligence Sammeln Analysieren Mit dem Industrial Data Intelligence-Angebot ermöglicht Softing Industrial die datenbasierte

Mehr

Industrie 4.0 Predictive Maintenance. Kay Jeschke SAP Deutschland AG & Co. KG., Februar, 2014

Industrie 4.0 Predictive Maintenance. Kay Jeschke SAP Deutschland AG & Co. KG., Februar, 2014 Industrie 4.0 Predictive Maintenance Kay Jeschke SAP Deutschland AG & Co. KG., Februar, 2014 Anwendungsfälle Industrie 4.0 Digitales Objektgedächtnis Adaptive Logistik Responsive Manufacturing Intelligenter

Mehr

IBM SPSS Data Access Pack Installationsanweisung für Windows

IBM SPSS Data Access Pack Installationsanweisung für Windows IBM SPSS Data Access Pack Installationsanweisung für Windows Inhaltsverzeichnis Kapitel 1. Übersicht.......... 1 Einführung............... 1 Bereitstellen einer Datenzugriffstechnologie.... 1 ODBC-Datenquellen...........

Mehr

Big Data Eine Einführung ins Thema

Big Data Eine Einführung ins Thema Joachim Hennebach Marketing Manager IBM Analytics 11. Februar 2016 Big Data Eine Einführung ins Thema Nur kurz: Was ist Big Data? (Die 5 Vs.) Volumen Vielfalt Geschwindigkeit Datenwachstum Von Terabytes

Mehr

Big & Smart Data. bernard.bekavac@htwchur.ch

Big & Smart Data. bernard.bekavac@htwchur.ch Big & Smart Data Prof. Dr. Bernard Bekavac Schweizerisches Institut für Informationswissenschaft SII Studienleiter Bachelor of Science in Information Science bernard.bekavac@htwchur.ch Quiz An welchem

Mehr

Der starke Partner für Ihre IT-Umgebung.

Der starke Partner für Ihre IT-Umgebung. Der starke Partner für Ihre IT-Umgebung. Leistungsfähig. Verlässlich. Mittelständisch. www.michael-wessel.de IT-Service für den Mittelstand Leidenschaft und Erfahrung für Ihren Erfolg. Von der Analyse

Mehr

Mit Excel Know-how webbasierte BI- Applikationen erstellen #MobileBI Business Driven Intelligence

Mit Excel Know-how webbasierte BI- Applikationen erstellen #MobileBI Business Driven Intelligence Mit Excel Know-how webbasierte BI- Applikationen erstellen #MobileBI Jochen Heßler, 16.03.2015 2002 Gegründet in Freiburg, Deutschland 2002 Heute Büros in Freiburg, Frankfurt, Düsseldorf, Paris, Boston

Mehr

Direktmarketing im Zentrum digitaler Vertriebsstrategien

Direktmarketing im Zentrum digitaler Vertriebsstrategien Direktmarketing im Zentrum digitaler Vertriebsstrategien Standortbestimmung und Key Learnings für Verlage Hamburg, September 2014 Im Zentrum digitaler Vertriebsstrategien steht zunehmend die Analyse komplexer

Mehr