Die Fakten, Mythen und Wahrheiten hinter Big Data. Ein Überblick aus Expertensicht

Größe: px
Ab Seite anzeigen:

Download "Die Fakten, Mythen und Wahrheiten hinter Big Data. Ein Überblick aus Expertensicht"

Transkript

1 Die Fakten, Mythen und Wahrheiten hinter Big Data Ein Überblick aus Expertensicht

2 Management Summary Alles ist mit allem verknüpft, alles hängt voneinander ab. Angesichts der riesigen Datenmengen wird es immer schwerer, den Überblick zu behalten. Und die digitale Flut steigt weiter. Mit der richtigen Technologie jedoch können Organisationen diese überbordende Datenfülle auch Big Data genannt in große Chancen verwandeln. Aber was ist Big Data eigentlich? Und wie steht es mit allem anderen, was irgendwie mit Big Data zu tun hat? Was verbirgt sich hinter In-Memory-Technologie, SAP HANA oder Hadoop? Vor allem aber: Welchen Einfluss hat Big Data heute und künftig auf Unternehmen und deren Geschäft? Ziel dieses White Papers ist es, die aktuelle Entwicklung zu beleuchten. Neben den persönlichen Perspektiven unserer Fachleute spiegelt es Trends wider, liefert Fakten und wichtige Definitionen, entschleiert weitverbreitete Mythen und räumt mit Fehlinformationen auf. Über die Autoren Klaus-Christoph Müller Klaus -Christoph Müller ist Director Global Business Solutions bei itelligence in Berlin. Der Schwerpunkt seiner Arbeit liegt auf der Entwicklung von Branchenlösungen. Er verfügt über langjährige Erfahrung im Business Development, in der Strategieberatung, in der Lösungsentwicklung und im Presales. Seine Karriere begann Klaus -Christoph Müller in der Automobilindustrie, wo er bei Volkswagen und DaimlerChrysler Financial Services (jetzt Daimler AG) verschiedene Fach- und Managementpositionen innehatte. Der Autor verfügt über Wissen und Erfahrung aus zahlreichen erfolgreichen Projekten mit innovativen Prozesslösungen. Kontakt: Christian Schmidt Christian Schmidt ist Global Director Business Analytics für itelligence in München. Seine Arbeit konzentriert sich auf Technologien zur Geschäftsanalyse, einschließlich SAP BusinessObjects, SAP NetWeaver Business Warehouse und In-Memory-Technologie von SAP (SAP HANA). Er sammelte ausgiebige Industrieerfahrung in verschiedenen Positionen als Experte und im Management bei der Deloitte GmbH, bei der Infineon Technologies AG und der Mead Corporation (jetzt MeadWestvaco). Zurzeit arbeitet Christian Schmidt mit Kunden zusammen und implementiert SAP HANA. Er ist außerdem ein angesehener Referent, der bei wichtigen Branchenveranstaltungen in ganz Europa spricht. Kontakt: 2

3 Inhaltsverzeichnis Seite Management Summary 2 Über die Autoren 2 Die aktuellen Herausforderungen 4 Geschäftliche Herausforderungen 4 IT-Herausforderungen 4 Was ist Big Data? 5 Mythos 1: Big Data ist etwas Neues 7 Praxisbeispiele für Big Data 8 Mythos 2: Big Data ist eine Einzeltechnologie 9 Was ist In-Memory-Technologie? 9 Mythos 3: In-Memory ist nur ein Hype von SAP 11 Was ist Hadoop? 12 Mythos 4: Hadoop ist eine Alternative zu In-Memory-Technologie 13 Wie Big Data die Business-IT der Zukunft beeinflusst 14 Predictive Analytics weil die Zeit dafür reif ist! 16 Mythos 5: In-Memory-Computing ist das Ende von Data Warehousing 18 Empfehlungen für Big-Data-Strategien 19 Predictive Analytics wird zum großen Vorteil 19 SAP HANA hat sich als Plattform bewährt 20 Der Business Case weist den Weg 21 3

4 Die aktuellen Herausforderungen Geschäftliche Herausforderungen Zwei Jahrzehnte im Zeichen einer enormen Internationalisierung gingen für Unternehmen fast aller Branchen mit einem bislang ungeahnten Ausmaß an Veränderungen einher. Das stellt große Konzerne und mittelständische Unternehmen gleichermaßen vor vielfältige Herausforderungen eröffnet ihnen aber zugleich auch große Chancen: Sie können nun Märkte erschließen, von denen sie zuvor kaum zu träumen wagten. Andererseits verlangen der intensivierte Wettbewerb und die höhere Marktdynamik nach: kürzeren Reaktionszeiten, beschleunigten Innovationszyklen, besonders flexiblen und anpassungsfähigen Geschäftsprozessen.» Veränderung ist der Prozess, mit dem die Zukunft unser Leben durchdringt. «Im gleichen Ausmaß wie der globale Wettbewerb und ein sich wandelndes Konsumverhalten das Tempo vorgeben, verbreiten und vervielfältigen sich relevante Alvin Toffler Daten explosionsartig: Das Internet, soziale Medien und Mobilgeräte sprengen alle räumlichen und zeitlichen Grenzen. Daten im Allgemeinen sowie die geschäftsrelevanten Daten im Besonderen wachsen exponentiell. Das Pro-Kopf-Volumen an technologischer Speicher kapazität hat sich seit den 1980er Jahren alle 40 Monate nahezu verdoppelt wurden beispielsweise 2,5 Exabyte an neuen Daten erstellt und das an jedem einzelnen Tag des Jahres. IT-Herausforderungen Die neue geschäftliche Realität unserer Welt ist für die IT-Systeme und -Abteilungen in den Unternehmen eine besondere Herausforderung. Wo es früher relativ stabile Geschäftsumgebungen gab, herrscht heute ein Klima ständiger Veränderung. Übernahmen und Zusammenschlüsse, Umstrukturierungen, Ausgründungen oder neue Produkte verlangen nach neuen Prozessen und manchmal auch Systemen. Damit die IT mit dieser variablen Geschäftsumgebung Schritt halten kann, muss sie viel schneller und deutlich flexibler werden. Ein möglicher Weg zu mehr Agilität führt über die Abkehr von klassischen Wa ss e rfa llmode lle n. Gleichzeitig haben der sogenannte Consumerism, also die veränderte Erwartungshaltung an die Bedienerfreundlichkeit, und das veränderte Nutzungsverhalten im Zuge der rasanten Entwicklung bei Smartphones enorm an Bedeutung gewonnen. Big Data ist neben mobilen Technologien, sozialen Medien und der Cloud nur einer von vier großen, ineinander greifenden Trends, denen sich IT-Abteilungen aktuell gegenüber sehen (siehe Abbildung 1). 4

5 Abbildung 1: Wie Innovationen die Business-IT beeinflussen Sozial weltweite Vernetzung, Consumerism Cloud skalierbar, wartungsarm, kosteneffektiv Business IT Mobil immer und überall zugänglich Big Data rasch steigender Umfang, komplex, sehr veränderlich Vor dem Hintergrund dieser großen technologischen Fortschrittstreiber scheinen knappe Budgets so etwas wie die letzte Konstante in einer sich ständig wandelnden Welt zu sein. Aber es gibt auch gute Neuigkeiten: Datenspeicherung ist inzwischen billiger denn je! Außerdem wird die Datenverarbeitung über RAM-Module und CPU immer schneller und kostengünstiger (siehe Abbildung 2). Dieser erstaunliche Preisverfall geht einher mit neuen In-Memory-Technologien wie SAP HANA und neuen Analyseanwendungen wie Hadoop. Sie ermöglichen schnelle und kostengünstige Big-Data-Analysen, und das sowohl konventionell vergangenheitsorientiert als auch zunehmend zukunftsgerichtet (Predictive Analysis). Was dabei aber noch wichtiger ist, die IT kann nun ihre bislang vielleicht größte Schwachstelle überwinden die schwierige Integration zwischen der transaktionalen (oder operativen) Datenver - ar beitung und der Datenanalyse. Was ist Big Data? Wie so oft bei heißen Themen: Jeder spricht darüber, aber allzu häufig bleiben viele grundlegende Definitionen und Fakten im Dunkeln. Stattdessen entsteht umso mehr Raum für die Bildung von Mythen. 5

6 Worum also handelt es sich genau bei Big Data? Grundsätzlich gilt: Big Data ist ein Allerweltswort für jede Sammlung von Datensätzen, die so groß und komplex ist, dass es schwierig wird, sie mit den bisher verfügbaren Datenmanagement-Tools oder herkömmlichen Datenverarbeitungsanwendungen zu verarbeiten. Nach einer etwas differenzierteren Definition von Gartner lässt sich Big Data im Englischen durch die 3 Vs kennzeichnen: Volume (Menge), Velocity (Geschwindigkeit) und Variety (Vielfalt). Volume (Menge): Die 3 Vs charakterisieren Big Data Immer größere Mengen an Daten werden beispielsweise durch Maschinen produziert in Petabytes pro Tag: Eine einziges Flugzeugtriebwerk erzeugt alle 30 Minuten rund 10 TB an Tracking-Daten und täglich finden etwa Flüge statt! Strukturierte Daten erfordern eine hohe Bandbreite und Speicher mit großen Kapazitäten. Velocity (Geschwindigkeit): Datenströme in sozialen Medien erzeugen beispielsweise einen ständigen Zustrom an Meinungen und Beziehungen, die für das Kundenbeziehungsmanagement wertvoll sind. Selbst bei nur 140 Zeichen pro Tweet erzeugt die hohe Geschwindigkeit (und Frequenz) von Twitter-Daten eine Menge von über 8 TB täglich. Variety (Vielfalt): Für neue Dienste, neue Sensoren oder neuartige Marktkampagnen werden auch neue Datenarten benötigt, um die entstehende Information zu erfassen. Die größten Herausforderungen liegen darin, die sprichwörtliche Nadel im Heuhaufen zu finden, die relevante Information innerhalb einer großen Datenmenge herauszufiltern und die relevanten Daten dann für weitere Analysen aufzubereiten. Abbildung 2: Kosteneffizientere Speicherung und beschleunigte Verarbeitung von Daten Datenmenge 4 TB Jahr Speicherkosten Verarbeitungszeit US $ 33 Std. 20 Min.* US $ US $ 17 Min.** z. B. 1 Milliarde Textdateien mit je 4 KB Mehr Speicher und Geschwindigkeit bei erheblich geringeren Kosten! * Abruf und Hochladen aus HD-Speicher ** Lesen aus RAM 6

7 » Big Data beschreibt große Mengen an komplexen und variablen Hochgeschwindigkeitsdaten, für deren Informationsanalyse fortschrittliche Techniken und Technologien erforderlich sind. «Warum ist die Datenmenge in den letzten Jahren so drastisch gestiegen? Ein Grund ist in den sinkenden Preisen für Infrastruktur, beispielsweise für GPS-Sender, Netz werk verbindungen und Speichermedien zu finden. Entscheidend sind jedoch die neu en Möglichkeiten der persönlichen und geschäftlichen Kommunikation, welche z. B. Internet, Mobilgeräte und soziale Netzwerke bieten. Zugleich schafft die explodierende Anzahl an Kommunikationspunkten und Verflechtungen immer mehr Ein- und Ausgangs punkte für Daten eine klassische Henne-Ei-Situation! Und wie wirkt sich das auf die Geschäftsmodelle von Unternehmen aus? Vielleicht nicht gleich aber eventuell schon bald. Einige Fälle und Zahlen veranschaulichen es beispielhaft. Aus den sozialen Medien: Facebook hat über 1,31 Milliarden Nutzer. Sie teilen sich alle 20 Minuten rund eine Million Links und tauschen etwa drei Millionen Nachrichten aus. Facebook sammelt dabei geschätzt etwa 500 TB an Daten täglich. Wenn man aus Big Data keinen Nutzen zieht, hat man nicht Big Data, sondern einfach nur Massen an Daten, sagt Jay Parikh, Vice President Infra struc ture bei Facebook: Uns interessiert alles. Zum Vergleich: Die gesamte US-Library of Congress umfasst lediglich 20 TB an Daten. Aus der klassischen Industrie: Das Internet der Dinge (in Deutschland häufig auch Industrie 4.0 genannt) hebt die automatisierte Maschine-zu-Maschine-Kommunikation auf die nächste Ebene. Ein bekan nter Anwendungsfall ist das vernetzte Auto : Viele Fahrzeuge sind bereits mit einem Internet zugang und einem drahtlosen lokalen Netzwerk (WLAN) ausgerüstet. Autos warnen sich so gegenseitig oder helfen Dienstleistern und Erstausrüstern dabei, Prob - leme zu entdecken, ehe sie entstehen. Die neuesten Daten von ABI Research zum Internet of Everything (IoE) gehen heute bereits von über 10 Milliarden drahtlos verbundenen Geräten im Markt aus sollen es schon über 30 Milliarden sein. Big Data ist nicht neu! Mythos 1: Big Data ist etwas Neues Big Data ist nicht wirklich neu. Unternehmen beschäftigen sich schon seit Langem mit großen Datenmengen und führen anspruchsvolle Analysen durch. Denken Sie nur an die Kaufempfehlungen bei Ebay oder Amazon. Der geschäftliche Wert von Big Data in diesem Zusammenhang bedarf keines weiteren Nachweises. 7

8 Praxisbeispiele für Big Data 1. Medizinforschung Big Data bietet hier völlig neue Möglichkeiten, Erkenntnisse zu gewinnen. Früher haben Forscher Hypothesen über Beziehungen oder Einflussfaktoren in umfangreichen statistischen Verfahren nachweisen müssen. Das war sehr zeit- und kosten-intensiv. Häufig musste deshalb die Anzahl an Variablen auf einige ausgewählte Parameter beschränkt werden. Und bei einer Falsifizierung der Hypothese war alles umsonst: Man musste wieder komplett von vorne beginnen. Mit Big Data können die Forscher nun den umgekehrten Ansatz wählen: von den Daten hin zur Hypothese. So können z. B. auf der Grundlage zahlloser verfügbarer Datensätze aus medizinischen Aufzeichnungen gezielt nach neuen Beziehungen gesucht werden. 2. Politische Meinungsforschung Vor der US-Präsidentenwahl 2012 sammelte die Fachhochschule Ludwigshafen am Rhein über 50 Millionen Feeds und Posts von Twitter und Facebook als Showcase für die In-Memory-Datenbank SAP HANA. Etwa 1,5 Millionen Posts täglich (über 18 pro Sekunde) wurden in Bezug auf sinnvolle Meinungen hinsichtlich der Kandidaten ausgewertet. Die auf dieser Analyse unstrukturierter Daten basierenden Vorhersagen zum Wahlausgang übertrafen die Erwartungen und lagen überraschend nah an den tatsächlichen Ergebnissen. Hohe Wertigkeit von Big-Data- Technologie 3. Einzelhandel 2011 eröffnete der Einzelhandelsriese Tesco einen virtuellen Supermarkt in der U-Bahn der südkoreanischen Hauptstadt Seoul. Berufspendler können dort einfach per Smartphone einkaufen. Während Wartezeiten können Kunden über QR-Codes auf digitalen Werbeanzeigen bestellen und sich die Waren an die Haustür liefern lassen. Die Online-Umsätze stiegen in der Folge um 130 Prozent. Darüber hinaus optimierte Tesco zusätzlich die internen Prozesse mit Big Data: Mehr als 70 Millionen Datenpunkte von Kühlschränken werden in ein spezielles Data Warehouse eingespeist und analysiert. Auf diese Weise lässt sich beispielsweise die Geräteleistung überwachen und erkennen, ob regelmäßige oder präventive Wartungen zur Senkung der Energiekosten notwendig sind. 4. Lotterie Tipp24 AG, eine Online-Plattform für unterschiedliche europäische Lotterien, verwendet die (kürzlich von SAP erworbene) Software KXEN, um Milliarden von Transaktionen und Hunderte von Kundenattributen zu analysieren. Tipp24 kann vorausschauende Modelle für eine optimierte Kundenansprache nach Zielgruppen und personalisierte Nachrichten für die Verkaufsförderung entwickeln. Zusätzliche prädiktive Modelle lassen sich so um 90 Prozent schneller erstellen. 8

9 Mythos 2: Big Data ist eine Einzeltechnologie Alle Beispiele belegen den hohen Wert von Big-Data-Technologie vom Wissensmanagement über Geschäftsanalytik und das betriebliche Berichtwesen bis hin zu Simulationen und zur Forschung. Was sie gemeinsam haben, sind besonders intelligente, ganz unterschiedliche Lösungsansätze, die sich auf strukturierte und unstrukturierte Daten aus heterogenen Quellen stützen. Was sie nicht aufweisen, ist eine einzige, zentrale Big-Data-Technologie schlicht deshalb, weil es sie nicht gibt. Big Data steht für den kombinierten Einsatz von unterschiedlichsten (alten und neuen) Methoden und Technologien. Sie alle zielen darauf ab, neue Erkenntnisse zu gewinnen und gleichzeitig riesige Datenmengen effektiv und ohne Speicherprobleme zu verwalten. Um es ganz deutlich zu machen: Big Data erfordert vor allem außergewöhnliche Ansätze, die zum einen die Verarbeitung unterschiedlichster Massendaten aller Art ermöglichen und zum anderen Endanwender in kürzester Zeit zu neuen Erkenntnissen und Maßnahmen führen. Nach diesen grundlegenden Definitionen von Big Data, hat sich der Nebel um weit verbreitete Mythen vielleicht schon etwas gelichtet. Damit können nun zwei zentrale Technologien in den Fokus rücken: In-Memory-Technologie und Hadoop. Was ist In-Memory-Technologie? Das herkömmliche Modell der relationalen Datenbank mit zeilenorientiertem Zugriff wurde in datenintensiven Anwendungen wie Business Intelligence früh von Verfahren mit spaltenorientiertem Zugriff abgelöst. Der Zugriff auf den Datenspeicher, die sogenannte Input/Output-(I/O-)Rate, blieb jedoch weiterhin der entscheidende Engpass: Moderne Prozessoren können hochkomplizierte Algorithmen zwar blitzschnell ausführen, herkömmliche (relationale) Datenbanken damit jedoch nicht Schritt halten. Erheblich leistungsfähigere Prozessoren und der große Preisverfall bei den Rechenkapazitäten ermöglichen heute die direkte Datenhaltung im Hauptspeicher (In-Memory). Dadurch lässt sich der zeitaufwendige Speicherzugriff vollständig vermeiden so rückt die In-Memory-Technologie auf die Agenda vieler CIOs. 9

10 Abbildung 3: Herkömmliche Architektur im Vergleich mit SAP HANA Herkömmlich Mit SAP-HANA-Software Partitionierung Speicher In-Memory Keine aggregierten Tabellen Cache Nur Delta-Eingabe Kompression Flash Standard- Festplattentechnologie & Speichern in Reihen und Spalten» In-Memory-Computing leitet einen gravierenden Wandel ein, weil es die Total Cost of Ownership drastisch reduziert. «SAP HANA, ein von SAP entwickeltes und vermarktetes, spaltenorientiertes, relationales In-Memory- Datenbank-Managementsystem, ist vielleicht das bekannteste Beispiel für eine dedizierte In-Memory- Technologie. Zu ihren Fähigkeiten gehören die Part - itionierung für Datenbank-Computing (komplexe Abläufe finden direkt auf Datenbankebene statt) sowie der Verzicht auf Aggregatsbildung (flexible Datenmodelle ohne Redundanzen). Weitere Merkmale sind die Echtzeitreplikation und schnelle Ladevorgänge für Daten; die Delta-Eingabe sowie eine Datenkompression von bis zu 80 Prozent. Vor allem aber führt die spalten- und zeilenorientierte In-Memory-Speicherung zu höheren Reak - tionsfähigkeit und einer außerordentlichen Beschleunigung (siehe Abbildung 3). Das ist nicht nur bei geschäftlichen Analysen oder bestimmten Big-Data-Szenarien von großem Nutzen, sondern alle Transaktionen können viel schneller verarbeitet werden. Somit lassen sich unmittelbare Erkenntnisse aus Daten gewinnen, die bisher aufgrund der Leistungsgrenzen relationaler Datenbanken und des I/O-Engpasses ungenutzt bleiben mussten. Diese Beschleunigung ermöglicht Echtzeitanalysen und generell eine höhere Wertschöpfung in Geschäftsprozessen und kann sogar zu grundlegenden Veränderungen in Geschäftsmodellen führen. 10

11 Auf einen Blick: Die Vorteile der In-Memory-Technologie Geringere Betriebskosten für Anwendungen (durch Auslagerung von Datenbanken und Legacy-Anwendungen) Leistungsfähigere transaktionale Anwendungen Mehr horizontale Skalierbarkeit (Scale-up/Scale-down) Schnellere Reaktionszeiten bei Analyseanwendungen Geringe Latenzzeit der Anwendungsprotokolle (<1 Mikrosekunde) Drastisch schnellere Ausführung von Batch-Prozessen Business Intelligence als Selfservice inklusive freier Daten-Explorationen Korrelationen/Muster in Millionen von Abläufen lassen sich in null Komma nichts erkennen Unterstützung von Big Data (Big Data ist speicherintensiv) Hybrid Transactional Analytical Processing (HTAP) Transaktions- und Analyseanwendungen lassen sich mit der gleichen physischen Datenbank betreiben Mythos 3: In-Memory ist nur ein Hype von SAP Man sollte sich nicht von selbsternannten Experten in die Irre führen lassen: In-Memory ist weder nur ein Hype von SAP noch eine neue und unerprobte Technologie : Über 50 Softwareanbieter liefern heute bereits In-Memory-Technologie. Für bestimmte An wendungs arten, insbesondere für analytische Zwecke, steht In-Memory-Computing sogar schon seit den späten 1990er Jahren bereit. Text- und Semantikanalysen gibt es ebenfalls seit vielen Jahren. Bei SAP beispielsweise kam diese Technologie erstmals bei SAP Advanced Planning and Optimization und in der Suchmaschine TREX zum Einsatz.» Bis 2025 werden die meisten IT-Organisationen dem Weg von SAP folgen und ihre gesamte Infrastruktur auf In-Memory-Datenbanken betreiben. «Vergleichsweise neu ist jedoch, dass sich der Einsatz von In-Memory-Technologie nicht mehr auf zweckbestimmte oder einzelne, spezialisierte Anwendungen beschränkt. Seit 2013 kann SAP HANA vorhandene relationale Datenbanken vollständig ersetzen und lässt sich als zentrale Platt form für die komplette SAP Business Suite nutzen auch für SAP BW/BI/BO und als unabhängige Plattform für neue Anwen dungen. Da SAP nun die gesamte SAP Business Suite auf SAP-HANA-Datenbanken anbietet, lassen sich die Vorteile der In-Memory- Technologie auch für transaktionale Abläufe erschließen. Gartner prognostiziert, dass die meisten IT-Organisationen bis 2025 dem Weg von SAP folgen und ihre gesamte Infrastruktur auf In-Memory-Datenbanken und Flash-Speicher umstellen werden. Die Tage von Tape und HDD sind also gezählt. 11

12 Was ist Hadoop? Eines vorab: Das von der Apache Foundation entwickelte Hadoop ist keine Datenbank! Es ist vielmehr ein auf Java basierendes Software-Framework für skalierbare, dezentrale Softwareanwendungen, welches eine einfache Handhabung und Analyse großer Daten - mengen unterstützt. Wie bereits zuvor erwähnt, sind die 3 Vs Volume (Menge), Velocity (Geschwindigkeit) und Variety (Vielfalt) von Big Data die wichtigsten Herausforderungen für plattenbasierte, relationale Datenbanken. Und genau hier setzt Hadoop an. Volume: Hadoop bewältigt Datenmengen durch die Aufteilung von Daten und deren Verarbeitung auf mehrere Datenknotenpunkte. Falls Datenmenge oder Verarbeitungspensum an einem einzelnen Datenknotenpunkt steigen, lassen sich die Daten von einem Knotenpunkt auf weitere verteilen. Velocity: Hadoop sorgt für Datengeschwindigkeit, indem es die Trägheit vermeidet (oder zumindest verzögert), die mit der Eingabe von Daten in ein herkömmliches relationales Datenbankmanagementsystem einhergehen. Variety: Hadoop bewältigt unterschiedliche Daten, indem es sie als Linux-Betriebs - system-dateien abspeichert ohne sie vorab zu überprüfen oder zu verarbeiten. So lässt sich absolut jede Art von Daten speichern, ohne vorher die Datenstruktur zu kennen oder zu definieren.» Mit Hadoop lassen sich größere, granulare Datenmengen kostengünstiger speichern. Auch der Zugriff ist einfacher möglich. Man kann mehr in die Tiefe gehen und Geschäftsdaten auf unterschiedlichsten Wegen eingeben. «Hadoop läuft auf Hunderten oder Tausenden von kostengünstigen Commodity-Servern, sogenannten DataNodes (Datenknotenpunkte). Jeder speichert nur einen Teil der Daten. Durch die Aufteilung eines Verarbeitungsschritts in Tausende parallel laufende, kleinere Schritte auf einzelnen Maschinen kann Hadoop problem los Petabytes oder mehr verarbeiten. Es werden einfach weitere DataNode-Server hin zu gefügt. Hadoop folgt dem Map-Reduce-Programmiermodell von Google, und kann so Analyseund Verarbeitungstätigkeiten parallel ausführen (siehe Abbildung 4). Ein weiteres zentrales Merkmal der Hadoop-Softwarearchitektur ist es, dass Datenspeicherung und Datenver - arbeitung getrennt voneinander erfolgen. Viele Grundprinzipien von Hadoop sind schon lange bekannt. Sie erinnern stark an Methoden wie Stored Procedures und Batchläufe. Einen zentralen Unterschied stellen aber die erheblich einfacheren Benutzerdialoge dar. Die Antworten erscheinen, ähnlich wie bei Google oder anderen Suchmaschinenanbietern, quasi schon während der Ein - g abe. Beeindruckend insbesondere, wenn man die riesige Zahl der zugrunde liegenden Datensätze kennt. 12

13 Abbildung 4: Cluster von Commodity-Servern und das Map-Reduce-Programmiermodell bei Hadoop Hadoop Namensknotenpunkt Job Manager Job 1 Job 2 Job n Obwohl sich Hadoop und ähnliche Ansätze noch im Frühstadium befinden, sind sie jetzt schon eine Überlegung wert. Relationale Datenbanken sind nicht in der Lage, den aufgezeigten Anforderungen von Big Data gerecht zu werden. Und auch In-Memory- Technologie allein kann unter Umständen nicht alle Anforderungen bedienen. Das führt zur nächsten Frage: Wie verhält sich Hadoop eigentlich zu In-Memory-Technologie? Mappingphase Ergebnis Ergebnis Ergebnis Datenknotenpunkte Job 1 Job 2 Job n Reduktionsphase Endergebnis Mythos 4: Hadoop ist eine Alternative zu In-Memory-Technologie Angesichts der genannten Fakten ist klar, dass Hadoop keine Alternative oder Konkurrenz für In-Memory-Computing darstellt. Im Gegenteil: In-Memory ist vielmehr die technische Grundlage und eine ideale Plattform für Hadoop. Hadoop und In-Memory-Technologie ermöglichen in Echtzeit eine einfache Integration von großen Datenvolumen aus unterschiedlichen Quellen. Big Data lässt sich so ohne Beeinträchtigung durch vorhandene Business-Analytics- und Data-Warehouse-Strukturen analysieren. Das ist auch einer der Gründe für die Kooperation von SAP mit dem Hadoop-Framework. Daraus resultierte bereits ein dediziertes Toolset für eine einfache Integration in SAP- BW-Systeme. Weitere Kooperationsvereinbarungen gibt es mit Hadoop-Anbietern wie Cloudera, Hitachi Data Systems, Hortonworks, HP und IBM alle auf Basis der In-Memory-Datenbank SAP HANA. 13

14 Wie Big Data die Business IT der Zukunft beeinflusst Mehr Leistung durch Big Data Tendenziell werden geschäftliche Entscheidungen immer noch auf der Grundlage historischer Daten getroffen, und das obwohl schon seit vielen Jahren von Echtzeitsystemen gesprochen wird. So stand beispielsweise SAP R/3 für die dritte Genera - tion des Realtime-(also Echtzeit-)Systems. Bei genauerer Betrachtung galt diese Vor - aussetzung bislang aber nur für den transaktionalen Bereich von Geschäftssystemen. Aus Leistungsgründen wurde der analytische Teil entkoppelt: sowohl technisch schließlich gab es unterschiedliche Systeme als auch logisch, weil die Analyse immer auf Basis aggregierter historischer Daten durchgeführt wurde. Mehr Leistungsfähigkeit durch Big-Data-Technologien wie In-Memory und Hadoop ermöglichen Analysen in Echtzeit, die aber auch umgehend wieder für den operativen Betrieb zur Verfügung gestellt werden können. In anderen Worten: Unternehmen können nun zum einen viel schneller reagieren und zum anderen auch zunehmend proaktiv handeln. Der Fokus rückt immer mehr darauf, was als nächstes passieren wird und welche strategischen Handlungsoptionen bestehen, anstatt wie bisher nur auf historische Daten zu reagieren. Bislang konnten viele Firmen aus ihren wertvollen Daten einfach noch keinen Nutzen ziehen, selbst wenn sie eigentlich verfügbar waren. Der Grund dafür? Seit dem Beginn des ERP-Zeitalters hatten Unternehmen prinzipiell nur zwei Optionen für Reporting und Business Intelligence. Alternative 1: Sie konnten unternehmensinterne Auswertungen stricken oder zusätzliche Programme entwickeln. Das führte in der Regel zu komplizierten und starren Lösungen, die es dem Business User nicht ermöglichten, selbst Berichtstrukturen und Anfragen zu verändern. Demzufolge veralteten vorabdefinierte Berichte und deren Ergebnisse schnell. Aber selbst wenn dies nicht der Fall war, ließ die mangelnde Performanz keine weitreichenderen Schlussfolgerungen oder gar schnelle Entscheidungen auf Grundlage fundierter Informationen zu. Viele Unternehmen entschieden sich daher für Alternative 2: ein Data Warehouse. Diese wurden im Laufe der Zeit aufgrund ihrer größeren Flexibilität immer beliebter. Allerdings hatte diese Flexibilität ihren Preis: Es musste ein zusätzliches System aufgebaut werden und für das Erstellen von Auswertungen waren Experten und spezielle Extraktoren erforderlich. Diese Datenlager sind daher Spezialwerkzeuge für geschulte Mitarbeiter bestimmter Geschäftsbereiche. Aber selbst wenn geeignete Berichte verfügbar sind, bleiben Performance und Reaktionszeit ebenso ein Problem wie mobile Zugriffsmöglichkeiten für die Sales- und Servicemitarbeiter im Außendienst. Die mangelnde Leistungsfähigkeit lag hauptsächlich an der Trennung zwischen Online Transaction Processing (OLTP) und Online Analytical Processing (OLAP), die wiederum durch den hohen Preis für Datenspeicher bedingt war. 14

15 Abbildung 5: Die Entwicklung der Analysefähigkeiten in Unternehmen Historisch Echtzeit Prädiktiv Geschäftliche Herausforderung Mit Verzögerung Echtzeit nur für Transaktionsszenarien Beschreibend Diagnostisch Direkte Integration von betrieblichem Reporting in den Ablauf Kürzere/proaktive Reaktionszeiten Simulationen Sehen, was als Nächstes passiert Gegensteuern möglich, z. B. gegen Abwanderung Vorausschauende Maßnahmen Selfservice-Analysen Daten Strukturierte Daten aus Geschäftsanwendung Überwiegend strukturierte Daten aus Geschäftsanwendungen Unstrukturierte Daten teilweise möglich Viele Datenquellen Strukturierte Daten Unstrukturierte Daten Speicherung und Indexierung Sofort-Abfragen Viele verschiedene Datenquellen Technologie Beschränkung durch RAM Schichtenarchitektur Trennung OLTP/OLAP ETL/Data Warehouse In-Memory Gemischte Szenarien möglich Jetzt bereit für Enterprise- Computing Hadoop/Map Reduce/ kein SQL/R Frühe Entwicklungsstadien Mit der In-Memory-Technologie wird die Trennung von Transaktionen und Analyse aufgehoben. Es sind keine zusätzlichen Beschleunigungsprozesse mehr nötig. Das operative Reporting kann also dahin zurückkehren, wo es hingehört: In das zentrale, operative bzw. transaktionale System! Diese Konvergenz von OLTP- und OLAP- Aufgaben wird als Hybrid Transactional Analytical Processing (HTAP) bezeichnet. Der Ausdruck beschreibt die technische Fähigkeit, Anwendungen und Analysen in einer einzigen Umgebung durchzuführen und das mit deutlichen Vorteilen in der Performance und Verarbeitungsgeschwindigkeit durch die SAP-HANA-Datenplattform, der ersten echten Echtzeit-Datenbankplattform. Im Zusammenhang mit Echtzeit sind Datenqualität, Steuerung und Kontrolle des Quellsystems wichtiger denn je. Ansonsten wird SAP HANA zwar schnelle, jedoch unzureichende oder falsche Informationen liefern. Durch HTAP entfallen nämlich bislang vorhandene, zusätzliche Ebenen. Die Datenqualität muss also schon direkt an der Quelle stimmen. Folglich muss sich die Qualitätssicherung von einem nachgelagerten, latenzgesteuerten Bereinigungsprozess in einen parallelen Echtzeitprozess am Ausgangs punkt wandeln. Ähnlich dem Paradigma des umfassenden Qualitätsmanagements im Lean Manufacturing gilt nun: Es muss von Anfang an Qualität produziert werden, um (teure) Prüfungen und nachträgliche Korrekturen zu vermeiden. 15

16 Abbildung 6: In-Memory-Technologie wie SAP HANA vereinigt und beschleunigt Transaktionen und Analyse Betriebliche Daten Data Marts Data Warehouse Report ETL aus verschiedenen Quellen Einordnung Ansammlung OLTP-System in Echtzeit OLAP-System im Batch-Modus SAP In-Memory im Vergleich zu Abwickeln Analysieren Beschleunigen Transaktionen + Analyse direkt im Arbeitsspeicher (In-Memory) Aber Vorsicht: Die Plattform allein schafft noch kein Echtzeitunternehmen. Nur wenn es mit Hilfe von mobilen Lösungen und modernsten Benutzeroberflächen gleichzeitig gelingt, die Datenmenge und damit die Komplexität für den Anwender zu reduzieren wird Big Data überschaubar. Nur das liefern, was erforderlich ist! Das Grundprinzip: Nur das liefern, was erforderlich ist zum richtigen Ort, zur richtigen Person, zur richtigen Zeit! (Eine Leseempfehlung hierzu ist das Whitepaper Changes in Order : Die neue Aufgabe des CIO, insbesondere das Kapitel Warum nur der Anwendernutzen zählt.) Predictive Analytics weil die Zeit dafür reif ist! Prädiktive Analysen sind wie jede Art der Prognose von Natur aus unsicher. Das ändert sich auch durch Big Data nicht, allerdings lassen sich viele Wissenslücken schließen und die geschäftliche Terra Incognita erheblich reduzieren. Das Aufstellen von Hypothesen ist der Anfangspunkt. Im Folgenden helfen dann Tools für Predictive Analytics alle Zweifel, Einschätzungen und Möglichkeiten zu verifizieren und entsprechende Nachweise zu liefern. Der Ansatz setzt dabei auf bewährte statistische Verfahren wie lineare und nicht lineare Verteilungsmodelle, Regressionstests, Zeitreihenanalyse oder Klassifizierung und Clusterbildung. Für die meisten Anwendungsfälle stehen dabei umfangreiche Open-Source-Code- Bibliotheken zur Verfügung. 16

SAP Mobile Documents die Dropbox für schützenswerte Unternehmensdokumente

SAP Mobile Documents die Dropbox für schützenswerte Unternehmensdokumente SAP Mobile Documents die Dropbox für schützenswerte Unternehmensdokumente Franz Kerschensteiner / Sebastian Stadtrecher Fachvertrieb Mobility 21. Mai 2015 Disclaimer This presentation outlines our general

Mehr

SAP Sales and Operations Planning on HANA Alexander Barbeito Parga, SAP Presales Cloud Solutions. SAP Forum Switzerland, Baden 11. -12.06.

SAP Sales and Operations Planning on HANA Alexander Barbeito Parga, SAP Presales Cloud Solutions. SAP Forum Switzerland, Baden 11. -12.06. SAP Sales and Operations Planning on HANA Alexander Barbeito Parga, SAP Presales Cloud Solutions SAP Forum Switzerland, Baden 11. -12.06.2013 Disclaimer This presentation is not subject to your license

Mehr

DSAG Fachbeiratstreffen Nov. 2009 - Walldorf

DSAG Fachbeiratstreffen Nov. 2009 - Walldorf DSAG Fachbeiratstreffen Nov. 2009 - Walldorf Landscape Governance und geplante Verbesserungen des Lifecycle Management Prozesses im Dialog mit der DSAG Frank Kilian, Roland Hamm, Dirk Anthony, Stefan Götting,

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

Auf direktem Weg zum Echtzeitunternehmen mit SAP Business Suite powered by SAP HANA

Auf direktem Weg zum Echtzeitunternehmen mit SAP Business Suite powered by SAP HANA im Überblick SAP Business Suite powered by SAP HANA Herausforderungen Auf direktem Weg zum Echtzeitunternehmen mit SAP Business Suite powered by SAP HANA Mehr erreichen durch Echtzeitdaten Mehr erreichen

Mehr

SAS Analytics bringt SAP HANA in den Fachbereich

SAS Analytics bringt SAP HANA in den Fachbereich Pressemitteilung Hamburg, 08. November 2013 SAS Analytics bringt SAP HANA in den Fachbereich Ergonomie kombiniert mit Leistungsfähigkeit: die BI-Experten der accantec group geben der neuen Partnerschaft

Mehr

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd.

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd. Warum viele Daten für ein smartes Unternehmen wichtig sind Gerald AUFMUTH IBM Client Technical Specialst Data Warehouse Professional Explosionsartige Zunahme an Informationen Volumen. 15 Petabyte Menge

Mehr

SAP HANA eine Plattform für innovative Anwendungen

SAP HANA eine Plattform für innovative Anwendungen SAP HANA eine Plattform für innovative Anwendungen Top Intelligence: Big Data & SAP HANA Zürich, Frankfurt, Hamburg, München, Mülheim/R Februar 2014 Dr. Wolfgang Martin Analyst und Mitglied im Boulder

Mehr

Digitale Transformation: BI und Big Data treiben neue Geschäftsmodelle. CeBIT, 18.3.2015 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Digitale Transformation: BI und Big Data treiben neue Geschäftsmodelle. CeBIT, 18.3.2015 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Digitale Transformation: BI und Big Data treiben neue Geschäftsmodelle CeBIT, 18.3.2015 Dr. Carsten Bange, Gründer und Geschäftsführer BARC BARC: Expertise für datengetriebene Unternehmen Beratung Strategie

Mehr

Predictive Analytics: Ohne Kristallkugel in die Zukunft sehen. Birte Hildebrandt, Solution Expert Business Intelligence

Predictive Analytics: Ohne Kristallkugel in die Zukunft sehen. Birte Hildebrandt, Solution Expert Business Intelligence Predictive Analytics: Ohne Kristallkugel in die Zukunft sehen Birte Hildebrandt, Solution Expert Business Intelligence Disclaimer This presentation outlines our general product direction and should not

Mehr

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 0 Es TOP 10 DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 wird ein wichtiges Jahr für BIG (Business Intelligence Growth) 2012 war ein fantastisches Jahr für Business Intelligence! Die biedere alte

Mehr

DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG

DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG Inhalt Globale und unternehmensspezifische Herausforderungen Von Big Data zu Smart Data Herausforderungen und Mehrwert von Smart Data 2

Mehr

Infografik Business Intelligence

Infografik Business Intelligence Infografik Business Intelligence Top 5 Ziele 1 Top 5 Probleme 3 Im Geschäft bleiben 77% Komplexität 28,6% Vertrauen in Zahlen sicherstellen 76% Anforderungsdefinitionen 24,9% Wirtschaflicher Ressourceneinsatz

Mehr

Wird BIG DATA die Welt verändern?

Wird BIG DATA die Welt verändern? Wird BIG DATA die Welt verändern? Frankfurt, Juni 2013 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust Big Data Entmythisierung von Big Data. Was man über Big Data wissen sollte. Wie

Mehr

BIG DATA Impulse für ein neues Denken!

BIG DATA Impulse für ein neues Denken! BIG DATA Impulse für ein neues Denken! Wien, Januar 2014 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust The Age of Analytics In the Age of Analytics, as products and services become

Mehr

Software EMEA Performance Tour 2013. 17.-19 Juni, Berlin

Software EMEA Performance Tour 2013. 17.-19 Juni, Berlin Software EMEA Performance Tour 2013 17.-19 Juni, Berlin Accenture s High Performance Analytics Demo-Umgebung Dr, Holger Muster (Accenture), 18. Juni 2013 Copyright 2012 Hewlett-Packard Development Company,

Mehr

Business Intelligence

Business Intelligence Business Intelligence TOP Priorität für CIOs? Köln 08. Mai 2007 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business Intelligence BI TOP Priorität

Mehr

SEPA in SAP CRM. April 2013

SEPA in SAP CRM. April 2013 SEPA in SAP CRM April 2013 Ausschlussklausel Die Informationen in diesem Dokument sind vertraulich und urheberrechtlich geschützt und dürfen nicht ohne Genehmigung von SAP offengelegt werden. Diese Präsentation

Mehr

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zettabyte CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zetabyte: analytische Datenbanken Die Datenflut. Analytische Datenbanken: Was ist neu? Analytische Datenbanken:

Mehr

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data Herausforderungen und Chancen für Controller ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC BARC: Expertise für datengetriebene Organisationen Beratung Strategie

Mehr

Big Data Mythen und Fakten

Big Data Mythen und Fakten Big Data Mythen und Fakten Mario Meir-Huber Research Analyst, IDC Copyright IDC. Reproduction is forbidden unless authorized. All rights reserved. About me Research Analyst @ IDC Author verschiedener IT-Fachbücher

Mehr

Top 10 der Business Intelligence-Trends für 2014

Top 10 der Business Intelligence-Trends für 2014 Top 10 der Business Intelligence-Trends für 2014 Das Ende der Datenexperten. Datenwissenschaft kann künftig nicht nur von Experten, sondern von jedermann betrieben werden. Jeder normale Geschäftsanwender

Mehr

Von BI zu Analytik. bessere Entscheidungen basiert auf Fakten. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Von BI zu Analytik. bessere Entscheidungen basiert auf Fakten. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Von BI zu Analytik bessere Entscheidungen basiert auf Fakten Webinar Mai 2010 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Von Business Intelligence zu Analytik Die Bedeutung

Mehr

Prozess- und Datenmanagement Kein Prozess ohne Daten

Prozess- und Datenmanagement Kein Prozess ohne Daten Prozess- und Datenmanagement Kein Prozess ohne Daten Frankfurt, Juni 2013 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust Prozess- und Datenmanagement Erfolgreiche Unternehmen sind Prozessorientiert.

Mehr

Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick. Volker.Hinz@microsoft.com

Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick. Volker.Hinz@microsoft.com Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick Volker.Hinz@microsoft.com Was sagt der Markt? Fakten Meinung der Analysten zu Microsofts Angeboten Nutzen

Mehr

The Need for Speed. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

The Need for Speed. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor The Need for Speed CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor The Need for Speed Industrialisierung, Agilität und Compliance die Rolle von Performance Management

Mehr

vfabric-daten Big Data Schnell und flexibel

vfabric-daten Big Data Schnell und flexibel vfabric-daten Big Data Schnell und flexibel September 2012 2012 VMware Inc. All rights reserved Im Mittelpunkt: Daten Jeden Morgen wache ich auf und frage mich: Wie kann ich den Datenfluss optimieren,

Mehr

BIG DATA - BIG OPPORTUNITIES

BIG DATA - BIG OPPORTUNITIES BIG DATA - BIG OPPORTUNITIES eday: 2014 Wien, 6. März 2014 EBA Executive Business Advice GmbH 1120 Wien, Am Euro Platz 2, Gebäude G Tel.: +43 1 71728 172 Email: office@eba-business.at www.eba-business.at

Mehr

Business Intelligence - Wie passt das zum Mainframe?

Business Intelligence - Wie passt das zum Mainframe? Business Intelligence - Wie passt das zum Mainframe? IBM IM Forum, 15.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Ressourcen bei BARC für Ihr Projekt Durchführung von internationalen Umfragen,

Mehr

Möglichkeiten für bestehende Systeme

Möglichkeiten für bestehende Systeme Möglichkeiten für bestehende Systeme Marko Filler Bitterfeld, 27.08.2015 2015 GISA GmbH Leipziger Chaussee 191 a 06112 Halle (Saale) www.gisa.de Agenda Gegenüberstellung Data Warehouse Big Data Einsatz-

Mehr

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15 9.30 10.15 Kaffee & Registrierung 10.15 10.45 Begrüßung & aktuelle Entwicklungen bei QUNIS 10.45 11.15 11.15 11.45 Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics

Mehr

Einführung in Hauptspeicherdatenbanken

Einführung in Hauptspeicherdatenbanken Einführung in Hauptspeicherdatenbanken Harald Zankl Probevorlesung 13. 01., 13:15 14:00, HS C Inhaltsverzeichnis Organisation Überblick Konklusion Harald Zankl (LFU) Hauptspeicherdatenbanken 2/16 Organisation

Mehr

SAP HANA Enterprise Cloud die Cloud für agile Echtzeit- Unternehmen

SAP HANA Enterprise Cloud die Cloud für agile Echtzeit- Unternehmen im Überblick SAP HANA Enterprise Cloud Herausforderungen SAP HANA Enterprise Cloud die Cloud für agile Echtzeit- Unternehmen In Echtzeit zum Echtzeit-Unternehmen In Echtzeit zum Echtzeit-Unternehmen Möchten

Mehr

Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten

Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten von Jürgen Mauerer Foto: Avantum Consult AG Seite 1 von 21 Inhalt Mehrwert aufzeigen nach Analyse des Geschäftsmodells...

Mehr

Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie

Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie BIG DATA Future Opportunities and Challanges in the German Industry Zusammenfassung Die Menge der verfügbaren

Mehr

Komplexität der Information - Ausgangslage

Komplexität der Information - Ausgangslage Intuition, verlässliche Information, intelligente Entscheidung ein Reisebericht Stephan Wietheger Sales InfoSphere/Information Management Komplexität der Information - Ausgangslage Liefern von verlässlicher

Mehr

Maximieren Sie Ihr Informations-Kapital

Maximieren Sie Ihr Informations-Kapital Maximieren Sie Ihr Informations-Kapital Zürich, Mai 2014 Dr. Wolfgang Martin Analyst, Mitglied im Boulder BI Brain Trust Maximieren des Informations-Kapitals Die Digitalisierung der Welt: Wandel durch

Mehr

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht Big-Data-Technologien - Überblick - Quelle: http://www.ingenieur.de/panorama/fussball-wm-in-brasilien/elektronischer-fussball-smartphone-app-helfen-training Big-Data-Anwendungen im Unternehmen Logistik

Mehr

Business Mehrwerte von SAP HANA

Business Mehrwerte von SAP HANA Business Mehrwerte von SAP HANA von der Technologie zum Geschäft Halle, 07.05.2013 2013 GISA GmbH Leipziger Chaussee 191 a 06112 Halle (Saale) www.gisa.de Agenda GISA im Überblick Was ist SAP HANA? Was

Mehr

Foto: violetkaipa - Fotolia

Foto: violetkaipa - Fotolia Die D kön Foto: violetkaipa - Fotolia 10 IT-Trend Big Data atenflut steigt wie nen wir sie nutzen? Ständig erhöht sich die Masse der uns umgebenden Daten, Informationen werden immer schneller generiert.

Mehr

Vorhersagetechniken für zukünftiges Verhalten von Kunden

Vorhersagetechniken für zukünftiges Verhalten von Kunden IBM 360 Grad-Sicht auf den Kunden: Vorhersagetechniken für zukünftiges Verhalten von Kunden Sven Fessler, sven.fessler@de.ibm.com Solution Architect, IBM Germany Business Analytics & Optimization Das Spektrum

Mehr

DATA WAREHOUSE Optimiertes und flexibles Datenmanagement für das Investment Reporting

DATA WAREHOUSE Optimiertes und flexibles Datenmanagement für das Investment Reporting DATA WAREHOUSE Optimiertes und flexibles Datenmanagement für das Investment Reporting 1 Lange bewährt immer noch gelitten Das Data Warehouse ist vielen ein Dorn im Auge IT-Manager messen der zentralen

Mehr

Was tun mit Big Data? Workshop-Angebote der PROFI AG

Was tun mit Big Data? Workshop-Angebote der PROFI AG Was tun mit Big Data? Workshop-Angebote der PROFI AG Jetzt anmelden! Die Teilnehmerzahl ist begrenzt. Was ist Big Data? 3 Herzlich willkommen. Die PROFI AG bietet Kunden ein breites Spektrum an Software-Lösungen,

Mehr

Datawarehouse Architekturen. Einheitliche Unternehmenssicht

Datawarehouse Architekturen. Einheitliche Unternehmenssicht Datawarehouse Architekturen Einheitliche Unternehmenssicht Was ist Datawarehousing? Welches sind die Key Words? Was bedeuten sie? DATA PROFILING STAGING AREA OWB ETL OMB*PLUS SAS DI DATA WAREHOUSE DATA

Mehr

Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise

Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise Software AG Innovation Day 2014 Bonn, 2.7.2014 Dr. Carsten Bange, Geschäftsführer Business Application Research Center

Mehr

OLAP und Data Warehouses

OLAP und Data Warehouses OLP und Data Warehouses Überblick Monitoring & dministration Externe Quellen Operative Datenbanken Extraktion Transformation Laden Metadaten- Repository Data Warehouse OLP-Server nalyse Query/Reporting

Mehr

«DIE INFORMATIONSWELT MUSS EINFACHER UND AGILER WERDEN!» SCHNELLE, FLEXIBLE UND KOSTENGÜNSTIGE BUSINESS INTELLIGENCEund BIG DATA-LÖSUNGEN

«DIE INFORMATIONSWELT MUSS EINFACHER UND AGILER WERDEN!» SCHNELLE, FLEXIBLE UND KOSTENGÜNSTIGE BUSINESS INTELLIGENCEund BIG DATA-LÖSUNGEN «DIE INFORMATIONSWELT MUSS EINFACHER UND AGILER WERDEN!» SCHNELLE, FLEXIBLE UND KOSTENGÜNSTIGE BUSINESS INTELLIGENCEund BIG DATA-LÖSUNGEN UNSERE EINFACHE FORMEL FÜR AGILE BUSINESS INTELLIGENCE LÖSUNGEN

Mehr

Der Energiesektor im Wandel. 10. Mai 2012

Der Energiesektor im Wandel. 10. Mai 2012 Der Energiesektor im Wandel 10. Mai 2012 Der Energiesektor im Wandel: Was sind die wesentlichen Herausforderungen Heute und Morgen? Riesige Datenmengen! Klimawandel Marktliberalisierung Statt einem Zählerstand

Mehr

HP Adaptive Infrastructure

HP Adaptive Infrastructure HP Adaptive Infrastructure Das Datacenter der nächsten Generation Conny Schneider Direktorin Marketing Deutschland Technology Solutions Group 2006 Hewlett-Packard Development Company, L.P. 1The information

Mehr

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller Was ist? Hannover, CeBIT 2014 Patrick Keller Business Application Research Center Historie 1994: Beginn der Untersuchung von Business-Intelligence-Software am Lehrstuhl Wirtschaftsinformatik der Universität

Mehr

SAP HANA im Rechnungswesen

SAP HANA im Rechnungswesen SAP HANA im Rechnungswesen Nice-To-Know Stand: Juni 2015 Inhalt SAP HANA und In-Memory-Computing - Ausgangssituation - Lösungsansatz Einsatz-Szenarien von SAP HANA - Side-by-Side Scenarios - Integrated

Mehr

Titel1. Titel2. Business Analytics als Werkzeug zur. Unternehmenssteuerung. Business Excellence Day 2015. Michael Shabanzadeh, 10.

Titel1. Titel2. Business Analytics als Werkzeug zur. Unternehmenssteuerung. Business Excellence Day 2015. Michael Shabanzadeh, 10. Titel1 Business Analytics als Werkzeug zur Titel2 Unternehmenssteuerung Business Excellence Day 2015 Michael Shabanzadeh, 10. Juni 2015 World Communication GmbH 2015 Seite 1 Definition Business Analytics

Mehr

Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence

Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence IBM Netezza Roadshow 30. November 2011 Carsten Bange Gründer & Geschäftsführer BARC Die Krise hat die Anforderungen

Mehr

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data: Nutzen und Anwendungsszenarien CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data steht für den unaufhaltsamen Trend, dass immer mehr Daten in Unternehmen anfallen und von

Mehr

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired make connections share ideas be inspired Data Guido Oswald Solution Architect @SAS Switzerland BIG Data.. Wer? BIG Data.. Wer? Wikipedia sagt: Als Big Data werden besonders große Datenmengen bezeichnet,

Mehr

Intelligente Unternehmens- und Prozesssteuerung durch CPM

Intelligente Unternehmens- und Prozesssteuerung durch CPM Intelligente Unternehmens- und Prozesssteuerung durch CPM 5. IIR Forum BI, Mainz, Sept. 2006 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business

Mehr

Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch

Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch Unstrukturierte Daten spielen eine immer bedeutender Rolle in Big Data-Projekten. Zunächst gilt es

Mehr

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit Big Data und Business Analytics für Kunden und Unternehmen Umfangreiche und ständig anwachsende Datenvolumen verändern die Art und Weise, wie in zahlreichen Branchen Geschäfte abgewickelt werden. Da immer

Mehr

Self Service BI. - Business Intelligence im Mittelstand - schnelle Ergebnisse, nachhaltige Erfolge

Self Service BI. - Business Intelligence im Mittelstand - schnelle Ergebnisse, nachhaltige Erfolge Self Service BI - Business Intelligence im Mittelstand - schnelle Ergebnisse, nachhaltige Erfolge 04. Juli 2013 Cubeware GmbH zu Gast im Hause der Raber+Märcker GmbH Referent: Uwe van Laak Presales Consultant

Mehr

Verkaufen im 21. Jahrhundert Wir stellen vor: SAP Cloud for Customer

Verkaufen im 21. Jahrhundert Wir stellen vor: SAP Cloud for Customer Verkaufen im 21. Jahrhundert Wir stellen vor: SAP Cloud for Customer SAP Forum Baden, 11. Juni 2013 Kirsten Trocka Senior Industry Advisor, SAP Cloud Solutions SAP (Schweiz) AG Agenda Die Customer Cloud

Mehr

Die Cloud und ihre Möglichkeiten. Ihre Cloud- Optionen. Erleben Sie die Zukunft schon jetzt ganz nach Ihren Vorstellungen

Die Cloud und ihre Möglichkeiten. Ihre Cloud- Optionen. Erleben Sie die Zukunft schon jetzt ganz nach Ihren Vorstellungen Die Cloud und ihre Möglichkeiten Ihre Cloud- Optionen Erleben Sie die Zukunft schon jetzt ganz nach Ihren Vorstellungen Eine Lösung, die zu Ihnen passt Bei HP glauben wir nicht an einen für alle passenden,

Mehr

In-Memory Datenbanken im Kontext komplexer Analytics Pojekte am Beispiel der Otto Group BI

In-Memory Datenbanken im Kontext komplexer Analytics Pojekte am Beispiel der Otto Group BI In-Memory Datenbanken im Kontext komplexer Analytics Pojekte am Beispiel der Otto Group BI Hanau, 25.02.2015 1 Titel der Präsentation, Name, Abteilung, Ort, xx. Monat 2014 Der Aufbau der Group BI Plattform

Mehr

Prozess- und Service-Orientierung im Unternehmen mehr als Technologie

Prozess- und Service-Orientierung im Unternehmen mehr als Technologie Prozess- und Service-Orientierung im Unternehmen mehr als Technologie Presse Talk CeBIT 2007 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business

Mehr

BIG DATA STRATEGIE FÜR DEN ONLINE-HANDEL

BIG DATA STRATEGIE FÜR DEN ONLINE-HANDEL BIG DATA STRATEGIE FÜR DEN ONLINE-HANDEL Am Beispiel der OTTO GmbH & Co KG Dortmund, 09. September 2015 Conny Dethloff (OTTO GmbH & CO. KG) 1 Anliegen des heutigen Dialogs Über mich Inhalt des Dialogs

Mehr

Big Data Vom Hype zum Geschäftsnutzen

Big Data Vom Hype zum Geschäftsnutzen Big Data Vom Hype zum Geschäftsnutzen IBM IM Forum, Berlin, 16.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Hype 15.04.2013 BARC 2013 2 1 Interesse an Big Data Nature 09-2008 Economist 03-2010

Mehr

Creating your future. IT. αacentrix

Creating your future. IT. αacentrix Creating your future. IT. αacentrix We bring IT into Business Context Creating your future. IT. Wir sind eine Strategie- und Technologieberatung mit starkem Fokus auf die IT-Megatrends Cloud, Mobility,

Mehr

SAP Support On Demand - IBMs kombiniertes Service-Angebot für SAP Hosting und SAP Application Management Services (AMS)

SAP Support On Demand - IBMs kombiniertes Service-Angebot für SAP Hosting und SAP Application Management Services (AMS) (IGS) SAP Support On Demand - IBMs kombiniertes Service-Angebot für SAP Hosting und SAP Application Services (AMS) Martin Kadner, Product Manager SAP Hosting, GTS Klaus F. Kriesinger, Client Services Executive,

Mehr

IDC Studie: Deutsche Unternehmen wollen mit Cloud Services Geschäftsprozesse optimieren

IDC Studie: Deutsche Unternehmen wollen mit Cloud Services Geschäftsprozesse optimieren Pressemeldung Frankfurt, 26. Juli 2013 IDC Studie: Deutsche Unternehmen wollen mit Cloud Services Geschäftsprozesse optimieren Die Fachbereiche deutscher Unternehmen fordern von der IT eine bessere Unterstützung

Mehr

Business Analytics in der Big Data-Welt

Business Analytics in der Big Data-Welt Business Analytics in der Big Data-Welt Frankfurt, Juni 2014 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust Big Data-Analytik "The way I look at big data analytics is it's not a technology,

Mehr

Die Cloud, die für Ihr Unternehmen geschaffen wurde.

Die Cloud, die für Ihr Unternehmen geschaffen wurde. Die Cloud, die für Ihr Unternehmen geschaffen wurde. Das ist die Microsoft Cloud. Jedes Unternehmen ist einzigartig. Ganz gleich, ob im Gesundheitssektor oder im Einzelhandel, in der Fertigung oder im

Mehr

Industrie 4.0. Potentiale für BI-/DWH-Lösungen und Big-Data-Ansätze

Industrie 4.0. Potentiale für BI-/DWH-Lösungen und Big-Data-Ansätze Industrie 4.0 Potentiale für BI-/DWH-Lösungen und Big-Data-Ansätze Prof. Dr. Hans-Georg Kemper Keplerstr. 17 70174 Stuttgart Telefon: +49 (711) 685-83194 Telefax: +49 (711) 685-83197 E-Mail: kemper@wi.uni-stuttgart.de

Mehr

EMC. Data Lake Foundation

EMC. Data Lake Foundation EMC Data Lake Foundation 180 Wachstum unstrukturierter Daten 75% 78% 80% 71 EB 106 EB 133 EB Weltweit gelieferte Gesamtkapazität Unstrukturierte Daten Quelle März 2014, IDC Structured vs. Unstructured

Mehr

Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle

Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle 40. Congress der Controller, Themenzentrum C, München Steffen Vierkorn, Geschäftsführer Qunis GmbH, Neubeuern Die

Mehr

Zuerst zu Open Source wechseln

Zuerst zu Open Source wechseln Zuerst zu Open Source wechseln Zuerst zu Open Source wechseln Inhaltsverzeichnis Zuerst zu Open Source wechseln... 3 In die Mitte.... 4 Veränderungen in der Wirtschaftlichkeit der IT.... 6 2 Zuerst zu

Mehr

Wie Big Data (große Datenmengen) die Bereiche Datensicherung und Datenspeicherung verändert

Wie Big Data (große Datenmengen) die Bereiche Datensicherung und Datenspeicherung verändert I D C E X E C U T I V E B R I E F Wie Big Data (große Datenmengen) die Bereiche Datensicherung und Datenspeicherung verändert August 2012 Verfasst von Carla Arend Gesponsert von CommVault Einführung: Wie

Mehr

SAPs PLM Interface für CATIA V5

SAPs PLM Interface für CATIA V5 V6 SAPs PLM Interface für CATIA V5 Durchgängige, sichere und trotzdem schlanke Geschäftsprozesse erhöhen die Wettbewerbsfähigkeit in einem immer härteren globalen Wettstreit um die Gunst der potenziellen

Mehr

Hannover, 20.03.2015 Halle 5 Stand A36

Hannover, 20.03.2015 Halle 5 Stand A36 Integrierte Unternehmensinformationen als Fundament für die digitale Transformation vor allem eine betriebswirtschaftliche Aufgabe Hannover, 20.03.2015 Halle 5 Stand A36 Business Application Research Center

Mehr

Copyright 2015 Hewlett-Packard Development Company, L.P. The information contained herein is subject to change without notice.

Copyright 2015 Hewlett-Packard Development Company, L.P. The information contained herein is subject to change without notice. Schritt für Schritt in das automatisierte Rechenzentrum Converged Management Michael Dornheim Mein Profil Regional Blade Server Category Manager Einführung Marktentnahme Marktreife Bitte hier eigenes Foto

Mehr

SAP Predictive Analytics

SAP Predictive Analytics SAP Predictive Analytics Wissen, was morgen läuft Rebekka Ketterer, Presales Business Intelligence & Predictive Analytics 23.04.2015 Informationen sammeln und nutzen Was wir sammeln Was wir davon nutzen

Mehr

Mit Excel Know-how webbasierte BI- Applikationen erstellen #MobileBI Business Driven Intelligence

Mit Excel Know-how webbasierte BI- Applikationen erstellen #MobileBI Business Driven Intelligence Mit Excel Know-how webbasierte BI- Applikationen erstellen #MobileBI Jochen Heßler, 16.03.2015 2002 Gegründet in Freiburg, Deutschland 2002 Heute Büros in Freiburg, Frankfurt, Düsseldorf, Paris, Boston

Mehr

Empfehlung zur strategischen Ausrichtung der SAP Business Objects-Frontendwerkzeuge. DSAG e.v.

Empfehlung zur strategischen Ausrichtung der SAP Business Objects-Frontendwerkzeuge. DSAG e.v. 1 Empfehlung zur strategischen Ausrichtung der SAP Business Objects-Frontendwerkzeuge 2 Motivation Seite 3 SAP BO/BW Frontendwerkzeuge Seite 4-5 Roadmap Analyse Werkzeuge Seite 6-7 Übersicht Kundenszenarien

Mehr

Pressemitteilung. Studie: Managing Business Intelligence Wie Sie aus Ihren Daten einen Wettbewerbsvorteil realisieren

Pressemitteilung. Studie: Managing Business Intelligence Wie Sie aus Ihren Daten einen Wettbewerbsvorteil realisieren Pressemitteilung Studie: Managing Business Intelligence Wie Sie aus Ihren Daten einen Wettbewerbsvorteil realisieren 21. Januar 2008, sieber&partners, Norman Briner 1 Vorwort Die bessere Nutzung und Auswertung

Mehr

Design und Innovation: Durch Anwendung von modernen Methoden zu bedarfsgerechten, gewollten IT-Lösungen

Design und Innovation: Durch Anwendung von modernen Methoden zu bedarfsgerechten, gewollten IT-Lösungen Design und Innovation: Durch Anwendung von modernen Methoden zu bedarfsgerechten, gewollten IT-Lösungen Michaela Hohlwein Michael Sambeth 17. März 2015 Public 2015 SAP SE or an SAP affiliate company. All

Mehr

Big Data in der Forschung

Big Data in der Forschung Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die

Mehr

2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung

2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung 2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung Reporting, Analyse und Data Mining André Henkel, initions AG 22. und 23. Oktober 2013 in Hamburg

Mehr

Master-Thesis (m/w) für unseren Standort Stuttgart

Master-Thesis (m/w) für unseren Standort Stuttgart Master-Thesis (m/w) für unseren Standort Abschlussarbeit im Bereich Business Process Management (BPM) Effizienzsteigerung von Enterprise Architecture Management durch Einsatz von Kennzahlen Braincourt

Mehr

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen 01000111101001110111001100110110011001 Volumen 10 x Steigerung des Datenvolumens alle fünf Jahre Big Data Entstehung

Mehr

Klein Computer System AG. Portrait

Klein Computer System AG. Portrait Klein Computer System AG Portrait Die Klein Computer System AG wurde 1986 durch Wolfgang Klein mit Sitz in Dübendorf gegründet. Die Geschäftstätigkeiten haben sich über die Jahre stark verändert und wurden

Mehr

Big Data Hype und Wirklichkeit Bringtmehrauchmehr?

Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Günther Stürner, Vice President Sales Consulting 1 Copyright 2011, Oracle and/or its affiliates. All rights Überschrift 2 Copyright 2011, Oracle and/or

Mehr

DWH Szenarien. www.syntegris.de

DWH Szenarien. www.syntegris.de DWH Szenarien www.syntegris.de Übersicht Syntegris Unser Synhaus. Alles unter einem Dach! Übersicht Data-Warehouse und BI Projekte und Kompetenzen für skalierbare BI-Systeme. Vom Reporting auf operativen

Mehr

Zukunftsträchtige Potentiale: Predictive Analysis mit SAP HANA & SAP BO

Zukunftsträchtige Potentiale: Predictive Analysis mit SAP HANA & SAP BO innovation@work Zukunftsträchtige Potentiale: Predictive Analysis mit SAP HANA & SAP BO thinkbetter AG Florian Moosmann 8. Mai 2013 1 Agenda Prädiktive Analyse Begriffsdefinition Herausforderungen Schwerpunktbereiche

Mehr

Health Insurance Days Künstliche Intelligenz Relevanz für die Krankenversicherung? Otto Bitterli, CEO Sanitas Interlaken, 23.

Health Insurance Days Künstliche Intelligenz Relevanz für die Krankenversicherung? Otto Bitterli, CEO Sanitas Interlaken, 23. Health Insurance Days Künstliche Intelligenz Relevanz für die Krankenversicherung? Otto Bitterli, CEO Sanitas Interlaken, 23. April 2015 Agenda Was wir unter künstlicher Intelligenz 1 verstehen - Breites

Mehr

WIR SIND DIE INFORMATIONSFABRIK

WIR SIND DIE INFORMATIONSFABRIK Bereit für Veränderungen: INFORMATIONSFABRIK FÜR IHR UNTERNEHMEN WO ENTSCHEIDUNGEN SCHNELL GETROFFEN WERDEN MÜSSEN LIEFERN WIR DIE FAKTEN i Unsere Lösungen helfen Ihnen unternehmensrelevante Daten zu gewinnen,

Mehr

Kleine Torte statt vieler Worte

Kleine Torte statt vieler Worte Kleine Torte statt vieler Worte Effektives Reporting & Dashboarding mit IBM Cognos 8 BI Jens Gebhardt Presales Manager Core Technologies BI Forum Hamburg 2008 IBM Corporation Performance Optimierung 2

Mehr

Intelligente Kundensegmentierung mit SAP HANA

Intelligente Kundensegmentierung mit SAP HANA GLOOOBAL E A l GLOOOBAL Energy Analyzer Intelligente Kundensegmentierung mit SAP HANA Die Herausforderung Wenn Energieversorger Strom an Unternehmenskunden verkaufen, ist ein detailliertes Verständnis

Mehr

Was kann ein ERP System wirklich? Auf der Suche nach einem Mittel zur Steigerung der Unternehmenseffizienz. www.dreher-consulting.

Was kann ein ERP System wirklich? Auf der Suche nach einem Mittel zur Steigerung der Unternehmenseffizienz. www.dreher-consulting. Was kann ein ERP System wirklich? Auf der Suche nach einem Mittel zur Steigerung der Unternehmenseffizienz. www.dreher-consulting.com Auf der Suche nach einem Mittel zur Steigerung der Unternehmenseffizienz.

Mehr