BIG DATA. Verfasser: Christian Schürer, Felix Zobrist, Sascha Freudiger. Projektcoach: Prof. Dr. Christian Thiel Diplom-Informatiker

Größe: px
Ab Seite anzeigen:

Download "BIG DATA. Verfasser: Christian Schürer, Felix Zobrist, Sascha Freudiger. Projektcoach: Prof. Dr. Christian Thiel Diplom-Informatiker"

Transkript

1 BIG DATA Verfasser: Christian Schürer, Felix Zobrist, Sascha Freudiger Projektcoach: Prof. Dr. Christian Thiel Diplom-Informatiker Seminararbeit im Modul WISE 2013

2 Quelle Titelbild:. (2012). Gefunden am unter Eingereicht am: 10. Januar 2014

3 Inhaltsverzeichnis III Inhaltsverzeichnis Inhaltsverzeichnis... III Abbildungsverzeichnis... V Tabellenverzeichnis... VI Abkürzungsverzeichnis... VII 1 Problemstellung Ziel der Arbeit Einführung Definition Volume (Datenmenge) Variety (Datenvielfalt) Velocity (Geschwindigkeit) Anwendungsbereiche Marketing und Vertrieb Forschung und Entwicklung Produktion, Service und Support Distribution und Logistik Finanz- und Risiko-Controlling Was fällt auf? Was ist neu? Abgrenzung & Business Intelligence Tools & Technologien Hadoop Komponenten Funktionsweise Nutzer von Hadoop Hadoop-Produkte Alternativen SAP - HANA Projekt Funktionsweise TB Benchmark System in der Cloud Chancen & Gefahren... 21

4 Inhaltsverzeichnis IV 5.1 Chancen Herausforderungen Big-Data-Strategie Weitere Herausforderungen Empfehlungen für KMU IBM Studie Analytics: The real-world use of big data Wie können KMU von profitieren? Empfehlungen zur Big-Data-Implementierung Phase 1: Educate to Explore Phase 2: Explore to Engage Phase 3: Engage to Execute Phase 4: Execute Quellenverzeichnis Vertraulichkeitserklärung... 36

5 Abbildungsverzeichnis V Abbildungsverzeichnis Abb. 1: Abb. 2: Abb. 3: Abb. 4: Abb. 5: Definition... 9 Map Reduce und HDFS Layer OLTP vs OLAP Herausforderungen Big-Data-Strategie Big-Data-Implementierungsphasen... 24

6 Tabellenverzeichnis VI Tabellenverzeichnis Tab. 1: Tab. 2: Chancen Herausforderungen... 24

7 Abkürzungsverzeichnis VII Abkürzungsverzeichnis ITU IDC LHC BI NoSQL HDFS International Telecommunication Union International Data Corporation Large Hadron Collider Business Intelligence Not Only SQL Hadoop Distributed File System

8 Kapitel 1: Problemstellung 8 1 Problemstellung Von einem Forschungsnetz zu einem globalen Kommunikationsnetz. Das Internet hat sich über die letzten Jahrzehnte rasant entwickelt und damit sind auch eine Vielzahl von Diensten und Anwendungen entstanden. Viele dieser Programme laufen heutzutage auf Smartphones oder Tablets und sind aus dem alltäglichen Leben nicht mehr wegzudenken. Laut einer aktuellen Studie der International Telecommunication Union (ITU) gibt es derzeit circa sechs Milliarden Mobilfunkteilnehmer. Die Anzahl der aktiven mobilen Teilnehmer mit Zugang zu Breitband-Netzen beläuft sich immerhin noch auf 1,1 Milliarden Menschen. Inklusive Haushalten mit kabelgebundenem Internetanschluss nutzen 32,5 Prozent der Weltbevölkerung oder 2,3 Milliarden Menschen das Internet. Diese Nutzer verursachen enorme Mengen an Daten wie beispielsweise Nutzdaten, Profildaten oder statistische Daten. Insgesamt wird das in 2012 erzeugte Datenvolumen in einer Studie der International Data Corporation (IDC) auf 2,7 Zettabytes (entspricht 2,7 Milliarden Terabyte) geschätzt, was ein Wachstum von 48 % gegenüber 2011 darstellt. Diese Daten bergen ein grosses Potential für unterschiedliche Branchen daher ist es auch nicht erstaunlich das Daten auch als das neue Öl des Digitalen Zeitalters bezeichnet werden. Entscheidend ist die Analyse dieser Daten, denn in unbearbeiteter Form kann deren Potential nicht optimal genutzt werden. Wenn es gelingt, diesen Daten in sinnvolle Strukturen zu gliedern, dann können diese zur Beantwortung von neuen Fragestellungen genutzt werden und ihr finanzielles Potential entfalten. Genau in diesem Umfeld kommt der Begriff ins Spiel. Dies ist ein abstrakter Oberbegriff für jegliche Art und Anzahl von Daten, die mit traditionellen Datenanalyseverfahren nicht mehr handhabbar sind und deshalb neuer Techniken und Technologien bedürfen. (Gesellschaft für Informatik, 2013; ITU, 2012; IDC, 2013) 1.1 Ziel der Arbeit Mit dieser Arbeit soll ein Überblick geschaffen werden in welchen Bereichen zum Einsatz kommt, welche Technologien dabei genutzt werden und was für Chancen und Gefahren mit den Einsatz von verbunden sind. Schlussendlich versucht das Projektteam eine Empfehlung auszuarbeiten mittels derer ein potentieller Einsatz von geprüft werden kann.

9 Kapitel 2: Einführung 9 2 Einführung umfasst Daten die die Kapazität herkömmlicher Datenbanksysteme überfordern. Die Daten sind zu gross, bewegen sich zu schnell oder passen nicht in die bestehende Datenbank-Architektur. (Dumbill, Howard, Zwemer, Loukides, Slocum, Croll, O Reilly, Steele & Hill, 2012, S. 3) 2.1 Definition Volume, Variety und Velocity. Diese drei V werden im Zusammenhang mit regelmässig erwähnt. Eines der weltweit führenden IT-Beratungs- und Forschungsunternehmen, die Gartner Gruppe, beschreibt in ihrem IT-Glossar Sinngemäss mit diesen Wörtern: Big data is high-volume, high-velocity and high-variety information assets that demand costeffective, innovative forms of information processing for enhanced insight and decision making. (Gartner, 2013) Auch die Autoren des Werkes im Praxiseinsatz Szenarien, Beispiele, Effekte des Deutschen Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e.v. (im Folgenden BITKOM genannt) verweisen in ihrem Werk auf diese drei Nomen und umschreiben die Definition von folgendermassen: bezeichnet den Einsatz grosser Datenmengen aus vielfältigen Quellen mit einer hohen Verarbeitungsgeschwindigkeit zur Erzeugung wirtschaftlichen Nutzens. (BITKOM, 2012, S. 21) Und auch die Autoren des Buchs Now, definieren mit den Worten:...volume, velocity, and variability of massive data (Dumbill et al., 2012, S. 3) Untenstehende Abbildung soll die Definition von visuell unterstützen. Abb. 1: Quelle: Definition Bitkom, 2012

10 Kapitel 2: Einführung Volume (Datenmenge) Wenn von gesprochen wird, stellt sich die Frage, was bedeutet Big? Dieses Big ist nicht eindeutig definiert und sollte nach den Autoren des McKinsey Global Instituts auch nicht eindeutig definiert werden. Da die Datenmenge in den kommenden Jahren stetig wachsen wird, werden auch immer grössere Mengenbezeichnungen im Umlauf sein. (Manyika, Chui, Brown, Bughin, Dobbs, Roxburgh & Hung Byers, 2011, S.1) Was jedoch eindeutig gesagt werden kann, ist dass immer mehr Organisationen und Unternehmen über riesige Datenberge verfügen. Um wenigstens eine Grössenordnung von Big Data zu nennen, die Datenberge können von einigen Terabytes bis hin zu Petabytes gehen. (Petabyte = bytes) (BITKOM, 2012, S. 21) Variety (Datenvielfalt) Immer mehr Datenformate aus immer mehr Quellen, damit müssen sich Unternehmen heutzutage auseinandersetzen. Diese Daten lassen sich grob in drei Kategorien unterteilen: unstrukturiert, semistrukturiert und strukturiert. Dabei können diese Daten sowohl aus internen Systemen und Programmen kommen als auch von externen Quellen. Diese Daten können z.b. Text-Daten, Web-Daten, tweets, clicks, streams, Sensor-Data, Audio- und Videodateien sein. (Schroeck, Shockley, Smart, Romero-Morales, & Tufano. 2012, S. 4; BITKOM, 2012, S. 21) Velocity (Geschwindigkeit) Die Geschwindigkeit mit der Daten erstellt, bearbeitet und analysiert werden, steigt kontinuierlich. Diese enormen Datenberge müssen immer schneller ausgewertet werden um Geschäftsprozesse anzupassen und die Entscheidungsfindung zu erleichtern. Aus diesen Gründen muss die Analyse der Daten oft in Echtzeit erfolgen um wirklichen Mehrwert zu generieren. Damit sind laut BITKOM folgende Herausforderungen verbunden: Analysen großer Datenmengen mit Antworten im Sekundenbereich Datenverarbeitung in Echtzeit Datengenerierung und Übertragung in hoher Geschwindigkeit (Schroeck et al., 2012, S. 4; BITKOM, 2012, S. 21)

11 Kapitel 3: Anwendungsbereiche 11 3 Anwendungsbereiche Rohstoffe sind die Basis für Produkte jeglicher Art. Daten werden als neuer Rohstoff betrachtet und treten in der digitalen Welt als Produktionsfaktor mit grossem Potential auf. Daten sind jedoch oft in unstrukturierter Form vorhanden und werden erst durch die Analyse zu wertvollen Bausteinen für die Weiterentwicklung von Produkten und Unternehmen. (BIT- KOM, 2012, S. 34) 3.1 Marketing und Vertrieb Der CEO von TESCO sagte einst: Pass dich dem Kunden an oder stirb (Philip Clarke, ohne Datum). Mit können Marketingverantwortliche Produkte und Dienstleistungen genauer auf ihre Kunden zuschneiden. Durch die aktive Analyse der Kundendaten können Unternehmen nicht nur Streuverluste reduzieren, sie haben die Möglichkeit Muster für die Kaufentscheidung zu identifizieren. Diese Muster sagen etwas über die Interessen, Vorlieben oder Themenbereiche aus, in denen sich ein Kunde bewegt. Somit eröffnen sich Cross- Selling-Potenziale und damit eine Erhöhung des Umsatzes. Da mit die Geschwindigkeit der Analyse auf Real-Time erhöht wird, besteht die Möglichkeit, dass durch Standortdaten den Kunden genau zum Zeitpunkt des Einkaufens spezifische Angebote unterbreitet werden können, sogenanntes location-based-marketing. (BITKOM, 2012, S ; Manyika et al., 2011, S.68) 3.2 Forschung und Entwicklung Wo geforscht oder entwickelt wird, da entstehen meist grosse Mengen an Daten. In diesem Bereich besteht ein grosses Potenzial für den Einsatz von. Besonders in den sehr forschungsintensiven Bereichen wie dem Gesundheitssektor oder in der Pharmaindustrie entstehen enorme und sehr heterogene Datenmengen. Die Analyse dieser Daten stellt eine grosse Herausforderung dar bei der sich die Big-Data-Technologie sehr vielseitig einsetzen lässt. Beispielsweise können verschiedene Forschungseinrichtungen ihre Daten zusammenlegen. Dadurch die zusammengelegten Informationen können rechen- und datenintensive Simulationen durchgeführt werden die zu besseren und genaueren Ergebnissen führen. Als Beispiel kann hier das Forschungszentrum CERN in Genf genannt werden. Wahrend eines Experiments mit dem Teilchenbeschleuniger Large Hadron Collider (LHC) entstehen pro Sekunde 40 Terabytes an Daten. (BITKOM, 2012, S. 37; Frauenhofer IAIS, 2013)

12 Kapitel 3: Anwendungsbereiche Produktion, Service und Support Mit lassen sich Produkte im laufenden Betrieb in Echtzeit analysieren. Dabei entstehen Daten über das Verhalten von Produkten und Prozessen unter Realbedingungen. Werden dazu noch externe Datenquellen wie beispielsweise Wetter und Geographie beigezogen, lässt sich das Wissen über die Produkte multiplizieren und die Zufriedenheit der Kunden steigern. (Manyika et al., 2011, S.81; BITKOM, 2012, S. 39; Frauenhofer IAIS, 2013) 3.4 Distribution und Logistik Heutzutage findet man in den meisten Fahrzeugen ein GPS-Navigationsgerät. Diese GPS- Daten können für die Logistikplanung sehr wertvoll sein. Zusätzlich können mit Sensoren ausgestattete Fahrzeugflotten den Benzinverbrauch oder den Zustand von Verschleissteilen übermitteln. Durch die Analyse diese GPS- und Sensor-Daten können Disponenten zeitnah Transporte planen, gegebenenfalls Routen und Beladung ändern sowie Wartungskosten und Stillstandzeiten minimieren. Dadurch lässt sich die Produktivität durch optimalen Einsatz von Kraftstoffen, vorbeugender Wartung sowie optimiertem Fahrverhalten verbessern. (BITKOM, 2012, S. 34) 3.5 Finanz- und Risiko-Controlling Das Finanz- und Risiko-Controlling profitiert von neuen Möglichkeiten im Bereich Betrugserkennung und Risikomanagement. Durch neue Big-Data-Technologien können die unterschiedlichsten Unternehmensinformationen schnell zusammengeführt und für Entscheidungen genutzt werden. Es stehen weit mehr Daten, Fakten und Beobachtungen als je zuvor zur Verfügung. Diese Informationen können analytisch so aufzubereiten werden, dass sie im Geschäftsprozess sofort zur Verfügung stehen. Im Gegensatz zu klassischen Business- Intelligence-Ansätzen, in denen vornehmlich formatierte Berichte auf starren Datenmodellen zum Einsatz kommen, erlauben Big-Data-Ansätze in weit stärkerem Mass als zuvor die gezielte Beantwortung von Ad-hoc-Fragestellungen. (BITKOM, 2012, S. 41) 3.6 Was fällt auf? Was ist neu? Die beschriebenen Anwendungsfälle wirken auf den ersten Blick nicht neu. Auch mit bestehenden BI-Systemen können viele dieser Analysen durchgeführt werden. Jedoch sind es die in Kapitel 1.1 Definition beschriebenen drei V s: - Volumen - Variety und - Velocity welche den Unterschied ausmachen, insbesondere weil diese in komplexen Problemen gleichzeitig behandelt werden. Dazu einige Aussagen aus der Praxis:

13 Kapitel 3: Anwendungsbereiche 13 Die Firma Oracle schreibt in einem White-Paper dazu: Big data is like traditional data in many ways: It must be captured, stored, organized, and analyzed, and the results of the analysis need to be integrated into established processes and influence how the business operates. But because big data comes from relatively new types of data sources that previously weren t mined for insight, companies aren t accustomed to collecting information from these sources, nor are they used to dealing with such large volumes of unstructured data. Therefore, much of the information available to enterprises isn t captured or stored for long-term analysis, and opportunities for gaining insight are missed. (Oracle, ohne Datum) John Felahi, CIO von Contant Analyst sagt zum Thema What s new? folgendes: When we look at the structured data world from years ago, the themes were the same: scale, performance & flexibility. New methods/tools augmented or evolved the solutions used for structured data insight data warehouses, datamarts, Business Intelligence, etc. We now have the same challenges with unstructured data that 80%+ of the information residing inside companies. Now we see in-memory content analytics being leverage to address the new requirements for the unstructured data. (Content Analyst, 2013) Des weiteren schreibt Price Waterhouse Coopers (PWC) zu : is about much more than data. It represents a new way of doing business one that is driven by data-based decision-making. (PWC, ohne Datum) ist somit nicht etwas total neues, durch die enorme Vielfallt an Datentypen, das hohe Tempo der Analyse und die gewaltige Menge an Daten jedoch auch nicht den bisherigen Ansätzen gleichzusetzten.

14 Kapitel 3: Anwendungsbereiche Abgrenzung & Business Intelligence Das hauptsächliche Unterscheidungsmerkmal zwischen Business Intelligence und ist die Ausrichtung auf die gesammelten und verarbeiteten Daten. BI-Lösungen setzen strukturierte, konsistente und beständige Daten voraus, wohingegen Lösungen speziell auf unstrukturierte und möglicherweise nicht konsistente Daten hin optimiert sind. Dementsprechend sind die eingesetzten Technologien auch ausgerichtet. Business Intelligence Lösungen setzen auf traditionelle Datenbanksysteme wie relationale Datenbanken, wohingegen Lösungen auf neuen Konzepten wie zum Beispiel Not Only SQL (NoSQL) Datenbanken oder dem Hadoop Framework basieren, die effizienter mit unstrukturierten und großen Datenmengen umgehen können. (Gesellschaft für Informatik, 2013) Im folgenden Abschnitt werden die gängigen Tools und Technologien im Bereich von Big Data erläutert.

15 Kapitel 4: Tools & Technologien 15 4 Tools & Technologien Es gibt verschiedene Tools und Technologien, welche ermöglichen und Unterstützen. Im folgenden Kapitel werden die wesentlichen Tools vorgestellt. ist eine sehr schnelllebige Thematik. Die erreichbare Speichergrösse und Verarbeitungsgeschwindigkeit verdoppelt sich spätestens alle zwei Jahre. Das bedeutet, dass Unternehmen mit immer grösser werdenden Datenmengen zu kämpfen haben. Um diese Daten zu verarbeiten gibt es verschiedene Tools, welche in den folgenden Kapiteln vorgestellt werden. Die meisten Analytics Lösungen basieren auf einem Hadoop Cluster. 4.1 Hadoop Hadoop ist ein Java basiertes Software-Framework, welches dem Benutzer ermöglicht grosse Rechenaufgaben an tausende Rechner verteilen zu können. Diese Funktion ermöglicht, Datenvolumen im Petabyte-Bereich zu verarbeiten. Entwickelt wurde das Framework von Doug Cutting. Der Entwickler und Suchmaschinenspezialist erkannte 2004, als Google den MapReduce-Algorithmus veröffentlichte, das grosse Potenzial darin komplexe Computing-Aufgaben relativ einfach zu zerlegen und von einem Server-Cluster verarbeiten zu lassen. (White, 2012, S ) Komponenten Das Hadoop Framework besteht aus drei Komponenten: 1. Hadoop Common beinhaltet die Grundfunktionen. Das bedeutet, es steuert die Zugriffe auf die darunterliegenden Filesysteme und enthält die nötigen Java Scripts um Hadoop zu starten. Weiter beinhaltet es den Sourcecode sowie alle Dokumentationen und Informationen zum Framework. (White, 2012, S ) 2. Hadoop Distributed File System (HDFS) ein hochverfügbares und leistungsfähiges Dateisystem, welches dem Anwender ermöglicht, grosse Datenmengen zu speichern. Nach Angaben der Entwickler, unterstützt werden Systeme mit bis zu 100 Millionen Dateien unterstützt. (White, 2012, S ) 3. MapReduce-Algorithmus, der von Google entwickelte Algorithmus bietet eine Engine welche Hadoop verschiedene Funktionen bereitstellt. Die Grundfunktion liegt darin, eine Rechenaufgabe in mehrere kleine Teile zu zerlegen, und auf verschiedene Rechner zu verteilen (Map), auf diesen Rechnern werden die Funktionen parallel ab-

16 Kapitel 4: Tools & Technologien 16 gearbeitet und die Ergebnisse wieder zusammengeführt (Reduce). (White, 2012, S ) Funktionsweise Das Common bietet den Rahmen um das gesamte Tool zu starten. Das HDFS figuriert als Cluster-Datei System welches alle beteiligten Rechner beinhaltet. Die zu verarbeitenden Daten werden auf die verschiedenen Systeme im Cluster verteilt. MapReduce dient in der Folge dazu die Daten an ihrem Ablageort parallel zu verarbeiten. Dies beschleunigt die Rechenarbeit und verringert den Netzdurchsatz. Grundsätzlich funktioniert das Dateisystems eines Hadoop-Clusters, nach dem Master- Slave-Prinzip. Der sogenannte Name Node übernimmt dabei die Rolle des Masters. Er ist nur einmal vorhanden, und verwaltet die Zugriffe auf das Dateisystem sowie alle Metadaten, Verzeichnisstrukturen und Dateien. Die effektiven Daten, werden in den Slaves, den sogenannten Data Nodes abgelegt. Damit es zu keinen Datenverlusten kommt, setzt man bei Hadoop auf eine Replikation der Dateien. Dabei werden die Dateien in einzelne Datenpakete zerlegt. Der Name Node, sorgt in der Folge dafür, dass alle Datenpakete verteilt werden und jedes Paket mehrfach vorhanden ist. Fällt nun ein Teil des Clusters aus, weiss der Name Node, an welcher Stelle die fehlenden Daten abgelegt sind. Jeder Data Node sendet regelmässig einen Heartbeat an den Name Node. Meldet sich ein Slave über eine vorgelegte Zeit nicht mehr, wird er nicht mehr verwendet, und der Master holt das Datenpaket von einem anderen Clustermitglied. Da der Name Node in jedem Cluster nur einmal vorkommt, stellt er den Singe Point of Failure dar. Um das Risiko zu minimieren, wird ein Secondary Name Node betrieben, welcher alle Veränderungen der Metadaten aufzeichnet und mit dessen Logfile sich ein Name Node jederzeit wiederherstellen lässt. (White, 2012, S ) Neben dem HDFS Layer, des Dateisystems, gibt es noch den MapReduce Layer, welcher die Verwaltung und Ausführung der Rechenaufgaben zuständig ist.

17 Kapitel 4: Tools & Technologien 17 Abb. 2: Map Reduce und HDFS Layer Quelle: Eigene Darstellung in Anlehnung an Markey, 2012 Analog zum Name Node im HDFS Layer, ist der Job Tracker im MapReduce Layer nur einmal vorhanden. Der Job Tracker verwaltet und verteilt die Jobs im Cluster und fungiert dabei als Master. Seine Slaves sind die Task Tracker welche beliebig oft möglich sind und die eigentliche Jobabwicklung übernehmen. Im Idealfall, befindet sich auf jedem Cluster- Knoten eine Task Tracker und eine Data Node Instanz. Ein grosser Vorteil, von Hadoop Clustern ist, dass sie sich mit Hilfe von Desktopcomputern, umsetzen lassen. Genau aus diesem Grund ist der Cluster auf grosse Redundanz ausgelegt, da bei Standardrechnern von mehr Hardwareausfällen auszugehen ist. Je nach Art und Umfang der Rechenaufgabe, kann der Cluster unterschiedlich dimensioniert werden. Als Betriebssystem für die Cluster-Knoten, wird von den Entwicklern Linux empfohlen. (White, 2012, S ) Nutzer von Hadoop Viele bekannte Internetfirmen benutzen Hadoop um ihre Daten effizienter zu verarbeiten. Facebook zum Beispiel nutzt das Hadoop-System für das Backup ihrer SQL-Datenbank sowie als Warehouse für Web-Analysen lagerten 30 Petabyte Daten im Hadoop Cluster von Facebook. Yahoo, das massgeblich an der Entwicklung von Hadoop beteiligt war, startete 2008 mit einem 10'000 Rechner starken Cluster um einen Index aller bekannten Websiten zu erstellen. Ebay betreibt ein 2'500 Rechner starken Hadoop-Cluster und gibt zu, dass inzwischen der Betrieb davon abhängt Hadoop-Produkte Hadoop ist eine frei erhältliche Software. Viele renommierte Softwarehersteller setzen in ihren Datenverarbeitungstool auf das Hadoop-Framework. Amazon.com bietet einen Hadoop Cluster zur Miete aus der Cloud an.

18 Kapitel 4: Tools & Technologien 18 IBM hat ihre Software zur Analyse unstrukturierter Daten (InfoSphere BigInsights) um die Hadoop-Technik erweitert und möchte ebenfalls einen Clouddienst anbieten. Oracle plant in seiner Appliance, einem speziell zur Verarbeitung von grossen Datenmengen ausgelegten System, das Hadoop-Framework zu verwenden. Microsoft möchte Hadoop in seiner Cloud-Plattform Azure sowie auf den Windows Servern unterstützen. Viele kleine Unternehmen bieten ebenfalls Dienstleistungen und Software rund um Hadoop an Alternativen Grundsätzlich hängt bei der Wahl eines richtigen Tools, alles davon ab wie viel Daten verarbeitet werden müssen. Bis zu einem Terrabyte Daten empfiehlt es sich ein normales SQL- Datenbankmanagementsystem zu verwenden. (Tucchio, 2013) Sind die zu verarbeitenden Daten jedoch grösser als ein Terrabyte, was bei vielen grösseren Unternehmen der Fall ist, gibt es nur noch wenige Alternativen zu Hadoop. Viele Projekte und Produkte setzen auf den MapReduce-Algorithmus. So zum Beispiel folgende: BashReduce, Spark, GraphLab oder HPCC. Diese Projekte oder Produkte haben sich jedoch bisher nicht gegen Hadoop durchgesetzt und deren Verbreitung ist sehr gering. Bei anderen Produkten ist nicht bekannt welchen Algorithmus sie benutzen so zum Beispiel Storm. (Hadoop Fatigue, 2011) Der grösste Vorteil, im Vergleich zu oben genannten Alternativen, den Hadoop mit sich bringt ist HDFS. Das Filesystem ist mit allen anderen Systemen kompatibel und hat eine hohe Fehlertoleranz. HDFS ist verlässlicher Weg um Daten zu speichern und mit anderen Daten Analyse Tools zu teilen. 4.2 SAP - HANA Projekt Hana ist der Name, einer von SAP entwickelten Appliance, welche die In-Memory Technologie verwendet. Da es sich um eine geschlossene Appliance handelt, kann Hard- und Software optimal aufeinander abgestimmt werden. Die In-Memory Technologie, welche sich dadurch auszeichnet, dass die Software grösstenteils im Arbeitsspeicher läuft, bringt deutliche Performancevorteile. Diese gute Performance ermöglicht dem Benutzer Real-Time Analysen und Statistiken Funktionsweise Die Entwickler von Hana haben versucht sich der heutigen Computer Architektur anzupassen. Sie haben sich in erster Linie darauf konzentriert Flaschenhälse zu verhindern. In der

19 Kapitel 4: Tools & Technologien 19 Vergangenheit, lag der Flaschenhals bei der Festplatte, da diese nicht genug schnell schreiben konnte. Im Jahr 2012 wurde bereits Server mit mehr als 2 Terrabyte RAM und 80 Prozessorkernen verkauft. Diese Entwicklung macht eine Festplatte für Verarbeitung-Server (im Gegensatz du Datenservern) praktisch überflüssig. Bei der In-Memory Technologie werden die Rechenaufgaben direkt im Arbeitsspeicher abgearbeitet. Der Kern der Appliance ist ebendiese spaltenorientierte In-Memory Datenbank. Ausserdem vereint HANA die transaktionale (OLTP) und analytische (OLAP) Welt. Abb. 3: OLTP vs OLAP Quelle: Arias E. (2011) Dies bedeutet, dass aus einer zielorientierten relationalen Datenbank, in welcher die Daten aus den transaktionalen Systemen wie ERP und CRM zusammenfliessen, und einem Data Warehouse als separates Reporting System für analytische Aufgaben alles in einem System zusammengefasst wird. Das bringt enorme Performancevorteile, da die Daten nicht mehr Repliziert werden müssen und die Analysen direkt auf den transaktionalen Daten ablaufen. Diese Lesezugriffe funktionieren in einer spaltenorientierten Datenbank schneller, da nicht mehr alle Zeilen eingelesen werden müssen. Um dem Problem mit der Flüchtigkeit der Daten im Memory zu begegnen, werden alle Daten parallel auf Disk geschrieben. Im Moment ist Hana nur als Appliance, also als vorkonfiguriertes Paket aus Hardware und Software, erhältlich. Der Quellcode ist für die Intel-Plattform optimiert. In Zukunft sollen die Kunden ihre Hardware auch selber aussuchen können. Zusätzlich können die Appliances in einem Cluster miteinander verbunden werden, damit die Rechenaufgaben ähnlich wie beim MapReduce-Algorithmus auf verschiedene Rechner verteilt werden können. (SAP Hana, 2012)

20 Kapitel 4: Tools & Technologien TB Benchmark System Ein neues Benchmark System, von SAP HANA ist mit 4000 Prozessorkernen und 100 Terrabyte Hauptspeicher ausgestattet. Damit wird bei einer Anfrage an eine 500-Terrabyte Datenbank eine Antwortzeit von 600 Millisekunden realisiert. Dies ermöglicht grosse Datenmengen in Echtzeit auszuwerten und zu analysieren. (SAP Hana Performance, 2012) 4.3 in der Cloud in der Cloud, ermöglicht durch die Auswertung von Massendaten den Gewinn von branchenübergreifenden und unabhängigen Erkenntnissen. Das verlagern in die Cloud, ermöglicht die Speicherung und unabhängige Verfügbarkeit von Daten. Cloud Computing ist gleichzeitig Treiber und Lösungstechnologie für den Umgang mit. Als Folge der zunehmenden Fülle an Anforderungen, entscheiden sich immer mehr Unternehmen ihre Infrastrukturen vollständig oder teilweise an externe Dienstleister auszulagern. Die Schwierigkeit liegt häufig darin, die Daten verfügbar, sicher und verwendbar zu halten, dafür benötigt man umfassende Massnahmen und hochmoderne Technologien. Diesen Anforderungen sind die wenigsten Unternehmen gewachsen. Vor allem nicht rund um die Uhr. Aus diesem Grund ist die Verlagerung der Daten und Anwendungen in eine Cloud häufig das effizienteste Vorgehen. Dabei ist es sehr wichtig, dass die Sicherheit und Verfügbarkeit der Daten gewährleistet ist. Als Unternehmen benötigt man grosses Vertrauen in den Cloud- Anbieter. Der Provider muss auf der anderen Seite über zukunftssichere und performante Systeme verfügen, um die flexible Infrastruktur zu gewährleisten. Neben dem Thema des Datenmissbrauchs, ist auch immer der Kontrollverlust ein Thema. Besonders die Echtzeitanalyse der gespeicherten Daten bringt einen enormen Mehrwert für das Business. Diese Informationen kann ein Unternehmen gezielt abrufen und damit schneller auf Markt- und Kundenanforderungen reagieren. Ein weiterer Faktor, der beim Thema Sicherheit vernachlässigt wird, ist die Gefahr des Datenmissbrauchs und Kontrollverlustes. Aufgrund der unkontrollierbaren Vermehrung von Informationen gerade im Bereich Web 2.0 müssen Anbieter äußerst sensibel darauf achten, dass die Auswertung ausschließlich anonymisiert erfolgt und einer Überprüfung durch Datenschutzbeauftrage von Bund oder Ländern jederzeit standhält. Eine Zuordnung entsprechender Daten zu einer Person darf zu keiner Zeit möglich sein. Daher muss der Datenschutz bereits im Design der Lösung vorhanden sein.

21 Kapitel 5: Chancen & Gefahren 21 5 Chancen & Gefahren Aufgrund der enormen Datenexplosion in den letzten Jahren und Jahrzenten gibt es heute eine riesige Fülle an strukturierten als auch unstrukturierter Daten. In der Vergangenheit konnten hauptsächlich die strukturierten Daten automatisch mithilfe von Programmen und Modellen verarbeitet und analysiert werden. Im Unterschied zu den konventionellen Methoden können nun mit den Technologien auch unstrukturierte Daten automatisch und nahezu in Echtzeit verarbeitet und analysiert werden. Diese neue Big-Data-Technologien beinhalten Chancen sowie Herausforderungen die in diesem Kapitel näher beschrieben sind. 5.1 Chancen In Anbetracht der Verarbeitung und Analyse grösserer Mengen an Daten in einer kürzeren Zeit, eröffnen sich vielseitige Chancen, damit sich Unternehmen unter Einbezug bislang unzugänglicher Informationen besser den Marktanforderungen anpassen können. Es gilt die Wünsche der Kunden von den Daten - statt den Augen abzulesen. (BITKOM, 2012, S. 14) Tabelle 1 zeigt Chancen für Unternehmen die im Zusammenhang mit dem Einsatz von Big Data Technologien genannt werden. Besonders jene Chancen, die in Verbindung zu Big Data und im Vergleich zu konventionellen Technologien zur Datenanalyse verwendet werden einen Mehrwert erzeugen, sind aufgeführt. Aspekt Prozessoptimierung Compliance Erläuterung Die Voraussetzung für die Prozessoptimierung ist ein fortgeschrittenes Datenmanagement, das Informationen in Echtzeit bereitstellt, um völlig neue Geschäftsprozesse abzuleiten. (BITKOM, 2012, S. 14) Die erhöhte Komplexität und die wachsende Menge an Daten erhöhen die Anforderungen an die Compliance. Um diesen Anforderungen gerecht zu werden, ist es umso wichtiger ein transparentes Datenmanagement zusammen mit einer detaillierten und zeitnahen Analyse vorgeschriebener Informationen aufzubauen, welches das Einhalten von regulatorischen Anforderungen erleichtert.(bitkom, 2012, S. 14) Kundenkenntnis Mit der Analyse von Kundendaten können leichter Kundensegmente erstellt werden und das Verhalten von Kunden an-

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data: Nutzen und Anwendungsszenarien CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data steht für den unaufhaltsamen Trend, dass immer mehr Daten in Unternehmen anfallen und von

Mehr

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data Herausforderungen und Chancen für Controller ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC BARC: Expertise für datengetriebene Organisationen Beratung Strategie

Mehr

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15 9.30 10.15 Kaffee & Registrierung 10.15 10.45 Begrüßung & aktuelle Entwicklungen bei QUNIS 10.45 11.15 11.15 11.45 Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics

Mehr

Die Cloud, die für Ihr Unternehmen geschaffen wurde.

Die Cloud, die für Ihr Unternehmen geschaffen wurde. Die Cloud, die für Ihr Unternehmen geschaffen wurde. Das ist die Microsoft Cloud. Jedes Unternehmen ist einzigartig. Ganz gleich, ob im Gesundheitssektor oder im Einzelhandel, in der Fertigung oder im

Mehr

SAS Analytics bringt SAP HANA in den Fachbereich

SAS Analytics bringt SAP HANA in den Fachbereich Pressemitteilung Hamburg, 08. November 2013 SAS Analytics bringt SAP HANA in den Fachbereich Ergonomie kombiniert mit Leistungsfähigkeit: die BI-Experten der accantec group geben der neuen Partnerschaft

Mehr

Big Data Mythen und Fakten

Big Data Mythen und Fakten Big Data Mythen und Fakten Mario Meir-Huber Research Analyst, IDC Copyright IDC. Reproduction is forbidden unless authorized. All rights reserved. About me Research Analyst @ IDC Author verschiedener IT-Fachbücher

Mehr

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd.

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd. Warum viele Daten für ein smartes Unternehmen wichtig sind Gerald AUFMUTH IBM Client Technical Specialst Data Warehouse Professional Explosionsartige Zunahme an Informationen Volumen. 15 Petabyte Menge

Mehr

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht Big-Data-Technologien - Überblick - Quelle: http://www.ingenieur.de/panorama/fussball-wm-in-brasilien/elektronischer-fussball-smartphone-app-helfen-training Big-Data-Anwendungen im Unternehmen Logistik

Mehr

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired make connections share ideas be inspired Data Guido Oswald Solution Architect @SAS Switzerland BIG Data.. Wer? BIG Data.. Wer? Wikipedia sagt: Als Big Data werden besonders große Datenmengen bezeichnet,

Mehr

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zettabyte CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zetabyte: analytische Datenbanken Die Datenflut. Analytische Datenbanken: Was ist neu? Analytische Datenbanken:

Mehr

Möglichkeiten für bestehende Systeme

Möglichkeiten für bestehende Systeme Möglichkeiten für bestehende Systeme Marko Filler Bitterfeld, 27.08.2015 2015 GISA GmbH Leipziger Chaussee 191 a 06112 Halle (Saale) www.gisa.de Agenda Gegenüberstellung Data Warehouse Big Data Einsatz-

Mehr

Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie

Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie BIG DATA Future Opportunities and Challanges in the German Industry Zusammenfassung Die Menge der verfügbaren

Mehr

Die richtige Cloud für Ihr Unternehmen.

Die richtige Cloud für Ihr Unternehmen. Die richtige Cloud für Ihr Unternehmen. Das ist die Microsoft Cloud. Jedes einzelne Unternehmen ist einzigartig. Ob Gesundheitswesen oder Einzelhandel, Produktion oder Finanzwesen keine zwei Unternehmen

Mehr

Datability. Prof. Dieter Kempf, Präsident BITKOM Oliver Frese, Vorstand Deutsche Messe AG. Hannover, 9. März 2014

Datability. Prof. Dieter Kempf, Präsident BITKOM Oliver Frese, Vorstand Deutsche Messe AG. Hannover, 9. März 2014 Datability Prof. Dieter Kempf, Präsident BITKOM Oliver Frese, Vorstand Deutsche Messe AG Hannover, 9. März 2014 Bürger fordern verantwortungsvollen Umgang mit Daten Inwieweit stimmen Sie den folgenden

Mehr

Infografik Business Intelligence

Infografik Business Intelligence Infografik Business Intelligence Top 5 Ziele 1 Top 5 Probleme 3 Im Geschäft bleiben 77% Komplexität 28,6% Vertrauen in Zahlen sicherstellen 76% Anforderungsdefinitionen 24,9% Wirtschaflicher Ressourceneinsatz

Mehr

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit Big Data und Business Analytics für Kunden und Unternehmen Umfangreiche und ständig anwachsende Datenvolumen verändern die Art und Weise, wie in zahlreichen Branchen Geschäfte abgewickelt werden. Da immer

Mehr

SAP HANA eine Plattform für innovative Anwendungen

SAP HANA eine Plattform für innovative Anwendungen SAP HANA eine Plattform für innovative Anwendungen Top Intelligence: Big Data & SAP HANA Zürich, Frankfurt, Hamburg, München, Mülheim/R Februar 2014 Dr. Wolfgang Martin Analyst und Mitglied im Boulder

Mehr

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen 01000111101001110111001100110110011001 Volumen 10 x Steigerung des Datenvolumens alle fünf Jahre Big Data Entstehung

Mehr

Prozess- und Datenmanagement Kein Prozess ohne Daten

Prozess- und Datenmanagement Kein Prozess ohne Daten Prozess- und Datenmanagement Kein Prozess ohne Daten Frankfurt, Juni 2013 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust Prozess- und Datenmanagement Erfolgreiche Unternehmen sind Prozessorientiert.

Mehr

Zeitgemäße Verfahren für ganzheitliche Auswertungen

Zeitgemäße Verfahren für ganzheitliche Auswertungen Intelligente Vernetzung von Unternehmensbereichen Zeitgemäße Verfahren für ganzheitliche Auswertungen Sächsische Industrie- und Technologiemesse Chemnitz, 27. Juni 2012, Markus Blum 2012 TIQ Solutions

Mehr

Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence

Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence IBM Netezza Roadshow 30. November 2011 Carsten Bange Gründer & Geschäftsführer BARC Die Krise hat die Anforderungen

Mehr

EMC. Data Lake Foundation

EMC. Data Lake Foundation EMC Data Lake Foundation 180 Wachstum unstrukturierter Daten 75% 78% 80% 71 EB 106 EB 133 EB Weltweit gelieferte Gesamtkapazität Unstrukturierte Daten Quelle März 2014, IDC Structured vs. Unstructured

Mehr

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 0 Es TOP 10 DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 wird ein wichtiges Jahr für BIG (Business Intelligence Growth) 2012 war ein fantastisches Jahr für Business Intelligence! Die biedere alte

Mehr

Wird BIG DATA die Welt verändern?

Wird BIG DATA die Welt verändern? Wird BIG DATA die Welt verändern? Frankfurt, Juni 2013 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust Big Data Entmythisierung von Big Data. Was man über Big Data wissen sollte. Wie

Mehr

Storage-Trends am LRZ. Dr. Christoph Biardzki

Storage-Trends am LRZ. Dr. Christoph Biardzki Storage-Trends am LRZ Dr. Christoph Biardzki 1 Über das Leibniz-Rechenzentrum (LRZ) Seit 50 Jahren Rechenzentrum der Bayerischen Akademie der Wissenschaften IT-Dienstleister für Münchner Universitäten

Mehr

Foto: violetkaipa - Fotolia

Foto: violetkaipa - Fotolia Die D kön Foto: violetkaipa - Fotolia 10 IT-Trend Big Data atenflut steigt wie nen wir sie nutzen? Ständig erhöht sich die Masse der uns umgebenden Daten, Informationen werden immer schneller generiert.

Mehr

Master-Thesis (m/w) für unseren Standort Stuttgart

Master-Thesis (m/w) für unseren Standort Stuttgart Master-Thesis (m/w) für unseren Standort Abschlussarbeit im Bereich Business Process Management (BPM) Effizienzsteigerung von Enterprise Architecture Management durch Einsatz von Kennzahlen Braincourt

Mehr

BIG DATA - BIG OPPORTUNITIES

BIG DATA - BIG OPPORTUNITIES BIG DATA - BIG OPPORTUNITIES eday: 2014 Wien, 6. März 2014 EBA Executive Business Advice GmbH 1120 Wien, Am Euro Platz 2, Gebäude G Tel.: +43 1 71728 172 Email: office@eba-business.at www.eba-business.at

Mehr

your IT in line with your Business Geschäftsprozessmanagement (GPM)

your IT in line with your Business Geschäftsprozessmanagement (GPM) your IT in line with your Business Geschäftsprozessmanagement (GPM) Transparenz schaffen und Unternehmensziele effizient erreichen Transparente Prozesse für mehr Entscheidungssicherheit Konsequente Ausrichtung

Mehr

DWH Szenarien. www.syntegris.de

DWH Szenarien. www.syntegris.de DWH Szenarien www.syntegris.de Übersicht Syntegris Unser Synhaus. Alles unter einem Dach! Übersicht Data-Warehouse und BI Projekte und Kompetenzen für skalierbare BI-Systeme. Vom Reporting auf operativen

Mehr

Thementisch Anwendungsgebiete und

Thementisch Anwendungsgebiete und Thementisch Anwendungsgebiete und b Erfolgsgeschichten KMUs und Big Data Wien 08. Juni 2015 Hermann b Stern, Know-Center www.know-center.at Know-Center GmbH Know-Center Research Center for Data-driven

Mehr

Integration mit Service Repositories zur SOA Governance

Integration mit Service Repositories zur SOA Governance Integration mit Service Repositories zur SOA Governance Nürnberg, 10.11.2009 I N H A L T 1. SOA Governance 2. Service Repository 3. Modelle und Service Repository 4. Modell-Driven SOA I N H A L T 1. SOA

Mehr

Preismodell, Roadmap, Vorteile SAP HANA im Analystenurteil

Preismodell, Roadmap, Vorteile SAP HANA im Analystenurteil Preismodell, Roadmap, Vorteile SAP HANA im Analystenurteil von Frank Niemann, Philip Carnelley, Tobias Ortwein Foto: PAC Seite 1 von 6 Inhalt Die Folgen für Oracle und IBM... 3 Neues ERP-Preismodell treibt

Mehr

Big Data Herausforderungen für Rechenzentren

Big Data Herausforderungen für Rechenzentren FINANCIAL INSTITUTIONS ENERGY INFRASTRUCTURE, MINING AND COMMODITIES TRANSPORT TECHNOLOGY AND INNOVATION PHARMACEUTICALS AND LIFE SCIENCES Big Data Herausforderungen für Rechenzentren RA Dr. Flemming Moos

Mehr

Big Data Eine Einführung ins Thema

Big Data Eine Einführung ins Thema Joachim Hennebach Marketing Manager IBM Analytics 11. Februar 2016 Big Data Eine Einführung ins Thema Nur kurz: Was ist Big Data? (Die 5 Vs.) Volumen Vielfalt Geschwindigkeit Datenwachstum Von Terabytes

Mehr

Big Data Vom Hype zum Geschäftsnutzen

Big Data Vom Hype zum Geschäftsnutzen Big Data Vom Hype zum Geschäftsnutzen IBM IM Forum, Berlin, 16.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Hype 15.04.2013 BARC 2013 2 1 Interesse an Big Data Nature 09-2008 Economist 03-2010

Mehr

Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick. Volker.Hinz@microsoft.com

Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick. Volker.Hinz@microsoft.com Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick Volker.Hinz@microsoft.com Was sagt der Markt? Fakten Meinung der Analysten zu Microsofts Angeboten Nutzen

Mehr

Analytisches CRM in der Automobilindustrie

Analytisches CRM in der Automobilindustrie Analytisches CRM in der Automobilindustrie Dr. Frank Säuberlich Practice Manager European Customer Solutions Urban Science International GmbH Automobilhersteller müssen neue Wege gehen Anforderungen in

Mehr

Einladung zu den IBM SPSS Data und Text Mining Tagen. Auch in Ihrer Nähe! Gewinnen Sie entscheidungsrelevantes Wissen mit Data und Text Mining

Einladung zu den IBM SPSS Data und Text Mining Tagen. Auch in Ihrer Nähe! Gewinnen Sie entscheidungsrelevantes Wissen mit Data und Text Mining Einladung zu den IBM SPSS Data und Text Mining Tagen Auch in Ihrer Nähe! Gewinnen Sie entscheidungsrelevantes Wissen mit Data und Text Mining Lassen Sie Daten und Texte für sich arbeiten mit Smarter Analytics

Mehr

Big Data in der Forschung

Big Data in der Forschung Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die

Mehr

R im Enterprise-Modus

R im Enterprise-Modus R im Enterprise-Modus Skalierbarkeit, Support und unternehmensweiter Einsatz Dr. Eike Nicklas HMS Konferenz 2014 Was ist R? R is a free software environment for statistical computing and graphics - www.r-project.org

Mehr

DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG

DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG Inhalt Globale und unternehmensspezifische Herausforderungen Von Big Data zu Smart Data Herausforderungen und Mehrwert von Smart Data 2

Mehr

BIG DATA Impulse für ein neues Denken!

BIG DATA Impulse für ein neues Denken! BIG DATA Impulse für ein neues Denken! Wien, Januar 2014 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust The Age of Analytics In the Age of Analytics, as products and services become

Mehr

Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise

Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise Software AG Innovation Day 2014 Bonn, 2.7.2014 Dr. Carsten Bange, Geschäftsführer Business Application Research Center

Mehr

Virtual Roundtable: Business Intelligence - Trends

Virtual Roundtable: Business Intelligence - Trends Virtueller Roundtable Aktuelle Trends im Business Intelligence in Kooperation mit BARC und dem Institut für Business Intelligence (IBI) Teilnehmer: Andreas Seufert Organisation: Institut für Business Intelligence

Mehr

Big Data Hype und Wirklichkeit Bringtmehrauchmehr?

Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Günther Stürner, Vice President Sales Consulting 1 Copyright 2011, Oracle and/or its affiliates. All rights Überschrift 2 Copyright 2011, Oracle and/or

Mehr

Positionspapier Big Data

Positionspapier Big Data TeleTrusT-interner Workshop Berlin, 05.06.2014 Positionspapier Big Data Oliver Dehning, antispameurope GmbH Leiter der AG Cloud Security Definition Big Data Big Data bezeichnet große Datenmengen (Volume)

Mehr

The Day in the Life of a Business Manager @ Microsoft

The Day in the Life of a Business Manager @ Microsoft The Day in the Life of a Business Manager @ Microsoft A look at analytics in action inside Microsoft Frank.Stolley@Microsoft.com Daniel.Weinmann@microsoft.com Microsoft Deutschland GmbH Big Data: Die Management-Revolution?

Mehr

Social-CRM (SCRM) im Überblick

Social-CRM (SCRM) im Überblick Social-CRM (SCRM) im Überblick In der heutigen Zeit ist es kaum vorstellbar ohne Kommunikationsplattformen wie Facebook, Google, Twitter und LinkedIn auszukommen. Dies betrifft nicht nur Privatpersonen

Mehr

In-Memory Analytics. Marcel Poltermann. Fachhochschule Erfurt. Informationsmanagement

In-Memory Analytics. Marcel Poltermann. Fachhochschule Erfurt. Informationsmanagement Marcel Poltermann Fachhochschule Erfurt Informationsmanagement Inhaltsverzeichnis Glossar...III Abbildungsverzeichnis...III 1 Erläuterung:... 2 2 Technische Grundlagen... 2 2.1 Zugriff physische Datenträger:...

Mehr

Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle

Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle 40. Congress der Controller, Themenzentrum C, München Steffen Vierkorn, Geschäftsführer Qunis GmbH, Neubeuern Die

Mehr

Mit Excel Know-how webbasierte BI- Applikationen erstellen #MobileBI Business Driven Intelligence

Mit Excel Know-how webbasierte BI- Applikationen erstellen #MobileBI Business Driven Intelligence Mit Excel Know-how webbasierte BI- Applikationen erstellen #MobileBI Jochen Heßler, 16.03.2015 2002 Gegründet in Freiburg, Deutschland 2002 Heute Büros in Freiburg, Frankfurt, Düsseldorf, Paris, Boston

Mehr

W.WIINM32.11 (Datawarehousing) W.WIMAT03.13 (Statistik)

W.WIINM32.11 (Datawarehousing) W.WIMAT03.13 (Statistik) Modulbeschrieb Business Intelligence and Analytics 16.10.2013 Seite 1/5 Modulcode Leitidee Art der Ausbildung Studiengang Modultyp W.WIINM42.13 Information ist eine derart wichtige Komponente bei der Entscheidungsfindung,

Mehr

Wir befinden uns inmitten einer Zeit des Wandels.

Wir befinden uns inmitten einer Zeit des Wandels. Wir befinden uns inmitten einer Zeit des Wandels. Geräte Apps Ein Wandel, der von mehreren Trends getrieben wird Big Data Cloud Geräte Mitarbeiter in die Lage versetzen, von überall zu arbeiten Apps Modernisieren

Mehr

ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE. NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik

ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE. NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik ARFA ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik Ralf Leipner Domain Architect Analytics, Risk Management & Finance 33. Berner Architekten

Mehr

Die Schlüssel-Lösung zur Ertragssteigerung: Enterprise PROduction Management E PROMI datenbasierte Entscheidungsunterstützung mit integrierter

Die Schlüssel-Lösung zur Ertragssteigerung: Enterprise PROduction Management E PROMI datenbasierte Entscheidungsunterstützung mit integrierter Korrekte Entscheidungen für Qualität und Produktivität effizient finden und treffen Die Schlüssel-Lösung zur Ertragssteigerung: Enterprise PROduction Management E PROMI datenbasierte Entscheidungsunterstützung

Mehr

Echtzeiterkennung von Cyber-Angriffen auf IT-Infrastrukturen. Frank Irnich SAP Deutschland

Echtzeiterkennung von Cyber-Angriffen auf IT-Infrastrukturen. Frank Irnich SAP Deutschland Echtzeiterkennung von Cyber-Angriffen auf IT-Infrastrukturen Frank Irnich SAP Deutschland SAP ist ein globales Unternehmen... unser Fokusgebiet... IT Security für... 1 globales Netzwerk > 70 Länder, >

Mehr

Diskussion eines IT-Outsourcing unter Berücksichtigung von Compliance Anforderungen. Bachelorarbeit

Diskussion eines IT-Outsourcing unter Berücksichtigung von Compliance Anforderungen. Bachelorarbeit Diskussion eines IT-Outsourcing unter Berücksichtigung von Compliance Anforderungen Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft

Mehr

Copyr i g ht 2014, SAS Ins titut e Inc. All rights res er ve d. HERZLICH WILLKOMMEN ZUR VERANSTALTUNG VISUAL ANALYTICS

Copyr i g ht 2014, SAS Ins titut e Inc. All rights res er ve d. HERZLICH WILLKOMMEN ZUR VERANSTALTUNG VISUAL ANALYTICS HERZLICH WILLKOMMEN ZUR VERANSTALTUNG VISUAL ANALYTICS AGENDA VISUAL ANALYTICS 9:00 09:30 Das datengetriebene Unternehmen: Big Data Analytics mit SAS die digitale Transformation: Handlungsfelder für IT

Mehr

Make your day a sales day

Make your day a sales day Make your day a sales day Axivas Group Axivas IT Solutions I C T M a n a g e m e n t S a l e s P o r t a l S o f t w a r e Ihr Technologiepartner für Marketing- und Vertrieb. S y s t e m I n t e g r a

Mehr

Microsoft Cloud Ihr Weg in die Cloud

Microsoft Cloud Ihr Weg in die Cloud Microsoft Cloud Ihr Weg in die Cloud Komfort Informationen flexibler Arbeitsort IT-Ressourcen IT-Ausstattung Kommunikation mobile Endgeräte Individualität Mobilität und Cloud sind erfolgsentscheidend für

Mehr

BIG DATA ANALYTICS STATUS QUO VADIS

BIG DATA ANALYTICS STATUS QUO VADIS Heading BIG DATA ANALYTICS STATUS QUO VADIS Name, Position Reiner Pistorius 17.03.2016 1 18.03.2016 1 Willkommen, Vorstellung, Warm up 2 Definition Big Data 3 Einsatz in Unternehmen heute 4 Künftige Entwicklung,

Mehr

Der Digital Business Index (DBI)

Der Digital Business Index (DBI) Der Digital Business Index (DBI) Modell zur Erfassung der digitalen Reife und strategischer Kompass zur Sicherung der Wettbewerbsfähigkeit ihres Unternehmens ideers Consulting GmbH Warum bedarf es eines

Mehr

Nutzen Sie Informationsmanagement für eine fundierte Entscheidungsfindung. Information Governance-Lösungen von Veritas

Nutzen Sie Informationsmanagement für eine fundierte Entscheidungsfindung. Information Governance-Lösungen von Veritas Nutzen Sie Informationsmanagement für eine fundierte Entscheidungsfindung Information Governance-Lösungen von Veritas Wahres Genie besteht in der Fähigkeit, unklare, riskante und widersprüchliche Informationen

Mehr

GESCHÄFTSSTELLENERÖFFNUNG HAMBURG, 25. APRIL 2013

GESCHÄFTSSTELLENERÖFFNUNG HAMBURG, 25. APRIL 2013 OSC Smart Integration GmbH SAP Business One GOLD-Partner in Norddeutschland GESCHÄFTSSTELLENERÖFFNUNG HAMBURG, 25. APRIL 2013 SAP Business One v.9.0 Heiko Szendeleit AGENDA OSC-SI 2013 / SAP Business One

Mehr

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller Was ist? Hannover, CeBIT 2014 Patrick Keller Business Application Research Center Historie 1994: Beginn der Untersuchung von Business-Intelligence-Software am Lehrstuhl Wirtschaftsinformatik der Universität

Mehr

Wachstumsförderung mit CRM

Wachstumsförderung mit CRM Wachstumsförderung mit CRM Computerwoche CRM Initiative Feb. 2007 Dr. Wolfgang Martin Analyst, Mitglied im CRM-Expertenrat und Research Advisor am Institut für Business Intelligence Wachstumsförderung

Mehr

vinsight BIG DATA Solution

vinsight BIG DATA Solution vinsight BIG DATA Solution München, November 2014 BIG DATA LÖSUNG VINSIGHT Datensilos erschweren eine einheitliche Sicht auf die Daten...... und machen diese teilweise unmöglich einzelne individuelle Konnektoren,

Mehr

Social Media trifft Business

Social Media trifft Business Social Media trifft Business Intelligence Social Media Analysis als Teil der Unternehmenssteuerung Tiemo Winterkamp, VP Global Marketing Agenda Social Media trifft Business Intelligence Business Intelligence

Mehr

HYBRID CLOUD IN DEUTSCHLAND 2015/16

HYBRID CLOUD IN DEUTSCHLAND 2015/16 Fallstudie: Microsoft Deutschland GmbH IDC Multi-Client-Projekt HYBRID CLOUD IN DEUTSCHLAND 2015/16 Mit hybriden IT-Landschaften zur Digitalen Transformation? MICROSOFT DEUTSCHLAND GMBH Fallstudie: Telefónica

Mehr

Sichere IT-Lösungen. Aus Aachen. Seit über 15 Jahren.

Sichere IT-Lösungen. Aus Aachen. Seit über 15 Jahren. Sichere IT-Lösungen. Aus Aachen. Seit über 15 Jahren. ÜBER UNS Gründung: 2000 in Aachen, Deutschland Gründer: Thomas Wiegand Geschäftsführer: David Bergstein Heutiger Standort: Stolberg, Deutschland Partnerschaften:

Mehr

PRESSE-INFORMATION NEU: LÜNENDONK -TRENDPAPIER 2012 BIG DATA IM HANDEL CHANCEN UND HERAUSFORDERUNGEN

PRESSE-INFORMATION NEU: LÜNENDONK -TRENDPAPIER 2012 BIG DATA IM HANDEL CHANCEN UND HERAUSFORDERUNGEN PRESSE-INFORMATION BI-19-09-12 NEU: LÜNENDONK -TRENDPAPIER 2012 BIG DATA IM HANDEL CHANCEN UND HERAUSFORDERUNGEN Big Data für den Handel wettbewerbsentscheidend Neue Anforderungen und Handlungsbedarf Technologie-Innovationen

Mehr

Big-Data and Data-driven Business KMUs und Big Data Imagine bits of tomorrow 2015

Big-Data and Data-driven Business KMUs und Big Data Imagine bits of tomorrow 2015 Big-Data and Data-driven Business KMUs und Big Data Imagine bits of tomorrow 2015 b Wien 08. Juni 2015 Stefanie Lindstaedt, b Know-Center www.know-center.at Know-Center GmbH Know-Center Research Center

Mehr

Industrie 4.0 Predictive Maintenance. Kay Jeschke SAP Deutschland AG & Co. KG., Februar, 2014

Industrie 4.0 Predictive Maintenance. Kay Jeschke SAP Deutschland AG & Co. KG., Februar, 2014 Industrie 4.0 Predictive Maintenance Kay Jeschke SAP Deutschland AG & Co. KG., Februar, 2014 Anwendungsfälle Industrie 4.0 Digitales Objektgedächtnis Adaptive Logistik Responsive Manufacturing Intelligenter

Mehr

HYBRID CLOUD IN DEUTSCHLAND 2015/16

HYBRID CLOUD IN DEUTSCHLAND 2015/16 Fallstudie: IBM Deutschland GmbH IDC Multi-Client-Projekt HYBRID CLOUD IN DEUTSCHLAND 2015/16 Mit hybriden IT-Landschaften zur Digitalen Transformation? IBM DEUTSCHLAND GMBH Fallstudie: Panasonic Europe

Mehr

DATA WAREHOUSE. Big Data Alfred Schlaucher, Oracle

DATA WAREHOUSE. Big Data Alfred Schlaucher, Oracle DATA WAREHOUSE Big Data Alfred Schlaucher, Oracle Scale up Unternehmensdaten zusammenfassen Noch mehr Informationen aus Unternehmens- Daten ziehen! Datenmengen, Performance und Kosten Daten als Geschäftsmodell

Mehr

The Need for Speed. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

The Need for Speed. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor The Need for Speed CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor The Need for Speed Industrialisierung, Agilität und Compliance die Rolle von Performance Management

Mehr

Big & Smart Data. bernard.bekavac@htwchur.ch

Big & Smart Data. bernard.bekavac@htwchur.ch Big & Smart Data Prof. Dr. Bernard Bekavac Schweizerisches Institut für Informationswissenschaft SII Studienleiter Bachelor of Science in Information Science bernard.bekavac@htwchur.ch Quiz An welchem

Mehr

Time To Market. Eine Plattform für alle Anforderungen. Lokale Betreuung (existierende Verträge und Vertragspartner, ) Kosten

Time To Market. Eine Plattform für alle Anforderungen. Lokale Betreuung (existierende Verträge und Vertragspartner, ) Kosten Time To Market Ressourcen schnell Verfügbar machen Zeitersparnis bei Inbetriebnahme und Wartung von Servern Kosten TCO senken (Einsparung bei lokaler Infrastruktur, ) CAPEX - OPEX Performance Hochverfügbarkeit

Mehr

Big Data Anwendungen Chancen und Risiken

Big Data Anwendungen Chancen und Risiken Big Data Anwendungen Chancen und Risiken Dr. Kurt Stockinger Studienleiter Data Science, Dozent für Informatik Zürcher Hochschule für Angewandte Wissenschaften Big Data Workshop Squeezing more out of Data

Mehr

Der starke Partner für Ihre IT-Umgebung.

Der starke Partner für Ihre IT-Umgebung. Der starke Partner für Ihre IT-Umgebung. Leistungsfähig. Verlässlich. Mittelständisch. www.michael-wessel.de IT-Service für den Mittelstand Leidenschaft und Erfahrung für Ihren Erfolg. Von der Analyse

Mehr

IT-Sicherheit mobiler Applikationen zur Unterstützung von Geschäftsprozessen. Bachelorarbeit

IT-Sicherheit mobiler Applikationen zur Unterstützung von Geschäftsprozessen. Bachelorarbeit IT-Sicherheit mobiler Applikationen zur Unterstützung von Geschäftsprozessen Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft der

Mehr

LOG AND SECURITY INTELLIGENCE PLATFORM

LOG AND SECURITY INTELLIGENCE PLATFORM TIBCO LOGLOGIC LOG AND SECURITY INTELLIGENCE PLATFORM Security Information Management Logmanagement Data-Analytics Matthias Maier Solution Architect Central Europe, Eastern Europe, BeNeLux MMaier@Tibco.com

Mehr

SAP Technologien für die Telematik Chancen für die Versicherungsbranche. Dr. Alfred Geers, SAP Schweiz 28. Oktober 2014

SAP Technologien für die Telematik Chancen für die Versicherungsbranche. Dr. Alfred Geers, SAP Schweiz 28. Oktober 2014 SAP Technologien für die Telematik Chancen für die Versicherungsbranche Dr. Alfred Geers, SAP Schweiz 28. Oktober 2014 Der Markt ist bezüglich Telematik bereits in Bewegung Versicherungen Kunden Automobilhersteller

Mehr

SQL Server 2012. Technischer Überblick. Patrick Heyde

SQL Server 2012. Technischer Überblick. Patrick Heyde SQL Server 2012 Technischer Überblick Patrick Heyde Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/patrick_heyde Patrick.Heyde@Microsoft.com SQL Server 2012 Highlights Der neue

Mehr

Business Intelligence - Wie passt das zum Mainframe?

Business Intelligence - Wie passt das zum Mainframe? Business Intelligence - Wie passt das zum Mainframe? IBM IM Forum, 15.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Ressourcen bei BARC für Ihr Projekt Durchführung von internationalen Umfragen,

Mehr

Beratung. Results, no Excuses. Consulting. Lösungen. Grown from Experience. Ventum Consulting. SQL auf Hadoop Oliver Gehlert. 2014 Ventum Consulting

Beratung. Results, no Excuses. Consulting. Lösungen. Grown from Experience. Ventum Consulting. SQL auf Hadoop Oliver Gehlert. 2014 Ventum Consulting Beratung Results, no Excuses. Consulting Lösungen Grown from Experience. Ventum Consulting SQL auf Hadoop Oliver Gehlert 1 Ventum Consulting Daten und Fakten Results, no excuses Fachwissen Branchenkenntnis

Mehr

Oracle BI&W Referenz Architektur Big Data und High Performance Analytics

Oracle BI&W Referenz Architektur Big Data und High Performance Analytics DATA WAREHOUSE Oracle BI&W Referenz Architektur Big Data und High Performance Analytics Alfred Schlaucher, Oracle Scale up Unternehmensdaten zusammenfassen Noch mehr Informationen

Mehr

NoSQL-Datenbanken und Hadoop im Zusammenspiel mit dem Data Warehouse

NoSQL-Datenbanken und Hadoop im Zusammenspiel mit dem Data Warehouse NoSQL-Datenbanken und Hadoop im Zusammenspiel mit dem Data Warehouse Carsten Czarski Oracle Deutschland B.V. & Co KG Big Data Betrachten von Daten die bislang nicht betrachtet wurden

Mehr

Open Source BI Trends. 11. Dezember 2009 Wien Konstantin Böhm

Open Source BI Trends. 11. Dezember 2009 Wien Konstantin Böhm Open Source BI Trends 11. Dezember 2009 Wien Konstantin Böhm Profil Folie 2 JAX 2009 11.12.2009 Gründung 2002, Nürnberg 50 Mitarbeiter Innovative Kunden Spezialisiert auf Open Source Integration Open Source

Mehr

Profil. The Remote In-Sourcing Company. www.intetics.com

Profil. The Remote In-Sourcing Company. www.intetics.com The Remote In-Sourcing Company Profil Für weitere Informationen senden Sie uns bitte eine E-Mail an: contact@intetics.com oder rufen Sie uns bitte an: +49-211-3878-9350 Intetics erstellt und betreibt verteilte

Mehr

Kann man Big Data managen?

Kann man Big Data managen? Kann man Big Data managen? Information Governance in Retail-Unternhmen Uwe Nadler Senior Managing Consultant Big Data Architect Sales Leader Information Governance D-A-CH Themen Die Bedeutung von Information

Mehr

Industrial Data Intelligence. Datenbasierte Produktionsoptimierung

Industrial Data Intelligence. Datenbasierte Produktionsoptimierung !DI Industrial Data Intelligence Datenbasierte Produktionsoptimierung Industrial Data Intelligence Sammeln Analysieren Mit dem Industrial Data Intelligence-Angebot ermöglicht Softing Industrial die datenbasierte

Mehr

Wir schaffen Freiraum für Ihre Ideen.

Wir schaffen Freiraum für Ihre Ideen. Wir schaffen Freiraum für Ihre Ideen. Software für Macher. Die Welt dreht sich durch jene, die sich die Freiheit nehmen, neue Wege zu gehen. Unsere Vision Wir sind, was wir wissen. Dabei ist das Teilen

Mehr

Software as a Service

Software as a Service Software as a Service Andreas Von Gunten http://www.ondemandnotes.com http://www.andreasvongunten.com SaaSKon 2008 11. November 2008 Das Problem - Komplexität Software selber zu betreiben, bedeutet zunehmende

Mehr

Wertbeitrag der IT in Unternehmen steigt und wird durch. Systemintegration und Hybrid Cloud sind Top-Themen der

Wertbeitrag der IT in Unternehmen steigt und wird durch. Systemintegration und Hybrid Cloud sind Top-Themen der PRESSE-INFORMATION IT- 15-04- 15 LÜNENDONK - WHITEPAPER: 5 VOR 12 DIE DIGITALE TRANSFORMATION WARTET NICHT Digitaler Wandel gelingt nur Top-Down sowie durch Re-Organisation und neue Unternehmenskultur

Mehr

Auswirkungen der Cloud auf Ihre Organisation So managen Sie erfolgreich den Weg in die Cloud

Auswirkungen der Cloud auf Ihre Organisation So managen Sie erfolgreich den Weg in die Cloud Die Cloud Auswirkungen der Cloud auf Ihre Organisation So managen Sie erfolgreich den Weg in die Cloud Die Auswirkungen und Aspekte von Cloud-Lösungen verstehen Cloud-Lösungen bieten Unternehmen die Möglichkeit,

Mehr

8 Juli 2015. Transparenz durch Governance Data Governance als kritischer Erfolgsfaktor für Predictive Analytics

8 Juli 2015. Transparenz durch Governance Data Governance als kritischer Erfolgsfaktor für Predictive Analytics Transparenz durch Governance Data Governance als kritischer Erfolgsfaktor für Predictive Analytics Contents Predictive Analytics Erwartungen erfüllt? Einfach denken worauf achten, bevor gestartet wird?

Mehr