DIE TRANSFORMATION DER GESCHÄFTSANALYSE IM UNTERNEHMEN. Intelligenz für jedermann SYBASE, EIN SAP -UNTERNEHMEN

Größe: px
Ab Seite anzeigen:

Download "DIE TRANSFORMATION DER GESCHÄFTSANALYSE IM UNTERNEHMEN. Intelligenz für jedermann SYBASE, EIN SAP -UNTERNEHMEN"

Transkript

1 DIE TRANSFORMATION DER GESCHÄFTSANALYSE IM UNTERNEHMEN Intelligenz für jedermann SYBASE, EIN SAP -UNTERNEHMEN 1

2 Intelligenz für jedermann DIE TRANSFORMATION DER GESCHÄFTSANALYSE IM UNTERNEHMEN 2 3

3 Intelligenz für jedermann Die Transformation der Geschäftsanalyse im Unternehmen Veröffentlicht von Sybase, einem SAP -Unternehmen.Prinzenallee 13, Düsseldorf, Deutschland Der Guide to Analytics ist auf folgender Website bestellbar: sybase.com/analyticsguide Copyright 2011 Sybase, ein SAP -Unternehmen. Alle Rechte vorbehalten. Irfan Khan, SVP & Chief Technology Officer Sybase, ein SAP -Unternehmen Sybase und das Sybase-Logo sind registrierte Marken von Sybase, Inc oder dessen Tochtergesellschaften. verweist auf eine Registrierung in den Vereinigten Staaten von Amerika. SAP und das SAP-Logo sind Marken oder eingetragene Marken der SAP AG in Deutschland und anderen Ländern. Alle anderen Marken sind Eigentum der jeweiligen Inhaber. Gedruckt in den Vereinigten Staaten. Sofern dies durch das Urheberrechtsgesetz der Vereinigten Staaten aus dem Jahr 1976 nicht ausdrücklich gestattet ist, darf kein Teil dieser Publikation ohne vorherige schriftliche Genehmigung durch den Herausgeber reproduziert oder verteilt bzw. in irgendeiner Form in einer Datenbank bzw. auf einem anderweitigen Datenspeichersystem gespeichert werden. Design : Boing Design Der Guide to Analytics zeigt anhand von Fakten und Beispielen, dass die in der Analysebranche weit verbreitete Furcht vor massiven Datenvolumen, stetig steigenden Nutzerzahlen und immer mehr Datentypen weit überzogen ist. Behauptungen, nach denen das so genannte Big-Data- Phänomen die Performance und Skalierbarkeit von Analytics Data Warehouses ernsthaft gefährden könnte, sind in dieser Schärfe schlicht nicht haltbar. Dies heißt nicht, dass die Schaffung eines reaktionsschnellen, umfassenden und skalierbaren Analytics Data Warehouse ein leichtes Unterfangen ist. Ganz im Gegenteil. Aber wie die folgenden Beispiele zeigen, lassen sich die damit verbundenen Herausforderungen durchaus erfolgreich meistern. Der Guide to Analytics schildert, wie es Unternehmen der verschiedensten Industriezweige gelungen ist, die Analyse tief in ihre betrieblichen Abläufe einzubetten. Er erörtert Studien, mit denen der Nutzen der Unternehmensanalyse ermittelt wird, und nennt zahlreiche Fallbeispiele für den signifikanten ROI, der mit der Analyse erzielbar ist und von dem besonders Unternehmen profitieren, die mit wachsenden Datenmengen, steigenden Nutzerzahlen, vielen verschiedenen Datentypen, zunehmender Auslastung und immer mehr Ad-hoc-Abfragen zu kämpfen haben. 4 5

4 /// ///567 INHALT 8 Kapitel 1: Die Big-Data-Lüge 34 Kapitel 3: Business Analytics in der Praxis 11 Das Daten-Armageddon: ein Blick in die Vergangenheit 14 Vier Schritte zur Datenqualität 16 Gesucht: mehr Daten 21 Kein Grund zur Panik 22 Kapitel 2: Intelligenz für jedermann 37 Die erfolgreiche Bewältigung der Datenflut 39 Die Ummünzung von Big Data in greifbare Vorteile 42 Weniger Speicherbedarf, mehr Einblicke 43 Analyse-Software in der Cloud 43 Appliances: kleine Lösungen für überschaubare Ansprüche 44 Analytics für mobile Nutzer 45 Mehr Nutzer, weniger Probleme 47 Aussagekräftige Datenstichproben 26 EDWs: die Achillesferse des Unternehmens? 29 Eine solide Analytics-Architektur 48 Kapitel 4: Best Practices und der ROI von Analyseprojekten 51 Der Proof of Concept ein leistungsstarkes Instrument 53 Die Voraussetzungen für ein erfolgreiches Analyseprojekt 54 Jenseits des Proof of Concept 56 Die Berechnung des ROIs von Analyselösungen 58 Von der Theorie zur Praxis 59 Im Fokus: Performance und Profit 60 Quellen 62 Weitere 6 7

5 KAPITEL 1: DIE BIG-DATA-LÜGE Die Big-Data-Lüge 8 9

6 KAPITEL 1: DIE BIG-DATA-LÜGE Einmal mehr wird ein Katastrophenszenario an die Wand gemalt. Dieses Mal heißt das Stichwort Big Data enorme Datenmengen, die IT-Abteilungen unter sich zu begraben drohen. Seien Sie also gewarnt, und wappnen Sie sich für die nächste große Katastrophe! Das Daten-Armageddon: ein Blick in die Vergangenheit Aber wie Rotkäppchen und der böse Wolf oder die Mär vom drohenden Weltuntergang ist auch das Big-Data- Phänomen eine Fiktion. Eine Erfindung. In den einschlägigen Medien, allen voran den US-Publikationen, ist Big Data das Thema. Wenn man danach googelt, erhält man drei Millionen Treffer weltweit. Big Data ist aber nicht nur Gegenstand zahlreicher Artikel der IT-Presse, sondern findet sich auch in allgemeinen Publikationen wie der New York Times oder dem Christian Science Monitor. Sogar einen eigenen (englischsprachigen) Wikipedia-Eintrag gibt es schon. Nicht zu vergessen die zahlreichen Veranstaltungen auf großen Konferenzen, die sich mit dem Thema Big Data befassen. GigaOm hat 2011 sogar eine jährliche Konferenz lanciert, die sich ausschließlich mit Big Data beschäftigt und nun online verfügbar ist. 1 In Deutschland widmet sich die Konferenz Big Data und Analytische Datenbanken in Neuss diesem Thema. Diese Flut von Daten und Informationen hat viele Beobachter dazu verführt zu glauben, dass die IT-Welt in der Big-Data-Welle untergehen wird. Eine bekannte Analystenfirma bezeichnet das Datenwachstum gar als die schwierigste Herausforderung für die Data-Center-Infrastruktur großer Unternehmen 2. Angesichts dieses Hypes verwundert es nicht, dass IT-Leiter weltweit nervös auf ihre Analytics- Infrastruktur blicken und sich fragen, ob sie dem Druck der furchteinflößenden, massiven Datenmengen gewachsen sein wird. Hier mein Rat: Entspannen Sie sich. Big Data ist halb so schlimm, wie uns momentan weisgemacht wird. Das heißt nicht, dass die Datenmenge in den Unternehmen nicht anwachsen wird. Selbstverständlich tut sie das. Zwischen jetzt und 2020 wird sich das Datenvolumen in den meisten Unternehmen um das 35-Fache aufblähen, prognostizieren die Analyseexperten von IDC. 3 Allerdings ist Big Data keineswegs ein neues Phänomen. Es kam nur nicht immer unter einem so griffigen Namen daher, mit dem Journalisten, Analysten und Experten machen können, was sie wollen

7 KAPITEL 1: DIE BIG-DATA-LÜGE BEREITS IN DEN 1950ER Jahren beobachteten die Unternehmen mit Sorge das Ansteigen der Datenmengen. So erkannte IBM schon sehr früh, dass sein aufblühendes Mainframe-Geschäft ohne einen bedeutenden technologischen Durchbruch sehr schnell an seine Grenzen stoßen würde, da die Menge der Transaktionsdaten in einem Tempo zunahm, mit dem die damaligen Speichertechnologien nicht mithalten konnten. Prompt präsentierte das Unternehmen 1956 das weltweit erste magnetische Festplattenlaufwerk, mit dem Daten auch außerhalb des Computerhauptspeichers abgelegt werden konnten. 4 Mit Kosten von rund Euro pro Megabyte galt das riesige 4,4-MByte-Laufwerk von IBM aus insgesamt 50 Platten mit einem Durchmesser von circa 60 Zentimetern, die in einer mehr als kühlschrankgroßen Einheit untergebracht waren, als die Antwort auf die Skalierbarkeitsprobleme der Zeit. Ein Irrtum, wie sich bald herausstellen sollte. Denn mehr Kapazität ermöglichte immer mehr Daten. Und mehr Daten erforderten immer mehr Computer zu ihrer Verarbeitung. Entsprechend rasant stieg die weltweite Zahl der Computer von 600 im Jahr 1956 auf in 1966 und in 1976, um 1984 mit Einführung der Personal Computer schließlich auf 6 Millionen anzuschwellen. 5 Heutzutage verteilen sich rund 3 Milliarden Computer rund um den Erdball, wobei allein 2010 ganze 352 Millionen Geräte ausgeliefert wurden. 6 Die Datenflut, die von all diesen Computern hervorgebracht wird, ist schwindelerregend. Nach Schätzung von IDC wurden 2009 weltweit Petabyte an Daten erzeugt und gespeichert; bis 2020 soll das Datenvolumen auf runde 35 Zettabyte ansteigen. Auf jedem Abschnitt dieses langen Wegs gab es Befürchtungen, die von all den Computern erzeugten Daten könnten Nutzer und Unternehmen überwältigen. In seinem 1970 erschienenen Bestseller Der Zukunftsschock prägte Alvin Toffler den Begriff der Informationsüberfütterung, um zu erklären, warum es Individuen und Unternehmen angesichts der Überfülle an Daten so schwerfällt, Entscheidungen zu treffen schrieb der Technologiekritiker Theodore Roszak: Ein Übermaß an Informationen kann Ideen regelrecht verdrängen und dazu führen, dass der Geist durch sterile, unzusammenhängende Fakten abgelenkt wird, ja orientierungslos zwischen Bergen von Daten hin und her irrt. 7 Dabei erfüllte die Informationsflut nicht nur populärwissenschaftliche Autoren, sondern auch Technologieexperten mit Sorge. So stand bereits 1990 eine IEEE-Konferenzveranstaltung unter dem Motto Massenspeicher in der Krise. Große Datenmengen sind also nichts Neues. Trotzdem wird uns gesagt, die aktuelle Big-Data-Krise bewegt sich auf einem völlig anderen Niveau. Ein Bericht formuliert es folgendermaßen: Big Data bringt Änderungen in einem nie da gewesenen, kritischen Ausmaß mit sich, das weiter eskalieren wird, wenn neueste Technologietrends zusätzlichen Schwung erhalten und zusammengeführt werden. 8 Eine andere Studie geht davon aus, dass 2020 die Abb. 1 Eine Kluft entsteht erzeugte Information > verfügbarer Speicherplatz Petabytes erzeugte digitale Information verfügbarer digitaler Speicherplatz Die Kluft im digitalen Universum Menge der erzeugten Daten deutlich über der Speicherkapazität liegen wird. 9 Trotz der immer wieder an die Wand gemalten Weltuntergangsszenarien ist es der Computerindustrie bisher stets gelungen, die anschwellende Datenflut zu bewältigen durch eine IT-Infrastruktur, die besser und schneller ist, mehr Daten aufnehmen kann, weniger kostet und weniger Raum einnimmt. Anhand der Entwicklung der Festplattenlaufwerke lässt sich sehr gut erkennen, wie die Branche das Big-Data-Problem in den vergangenen Jahrzehnten erfolgreich gemeistert hat: Die Festplattenkapazität stieg von 3,75 Megabyte auf über 1 Terabyte und ist mehr als mal so groß wie früher. Die Festplattengröße sank von 2,5 Kubikmetern (dem Format eines großen Kühlschranks) auf ganze 0,05 Kubikzentimeter (2,5-Zoll-Formfaktor mit Plattenstapel) und ist damit nur noch ein stel so groß wie früher. Die Speicherkosten sanken von Euro pro Megabyte auf weniger als 0,0001 Euro pro Megabyte (70 Euro pro Terabyte), was einem Preissturz um das Fache entspricht. Die durchschnittliche Zugriffszeit reduzierte sich von über 0,1 Sekunden auf wenige Tausendstel einer Sekunde und damit um mehr als das 40-Fache. 10 Zusätzlich zur beeindruckenden Weiterentwicklung der Festplatte arbeitete die Computerindustrie erfolgreich und mit Hochdruck an anderen Hardware-Verbesserungen wie der Mikroprozessorleistung oder der Geschwindigkeit der internen Busse. Allerdings war und ist Hardware nur ein Aspekt zur Bewältigung der Big-Data-Krise, insbesondere im Bereich der Unternehmensanalyse. Quelle: IDC Studie The Digital Universe Decade: Are You Ready?, mit Unterstützung von EMC, Mai 2010

8 KAPITEL 1: DIE BIG-DATA-LÜGE Vier Schritte zur Datenqualität AUF DEM WEG ZUR BEREITSTELLUNG EINES ANALYTICS DATA WAREHOUSE KOMMT DER DATENQUALITÄT HÖCHSTE BEDEUTUNG ZU. DABEI GIBT ES FÜR DIE SICHERSTELLUNG DER DATENQUALITÄT BEWÄHRTE METHODEN VON DER DATENBEREINIGUNG BIS ZUM MASTER DATA MANAGEMENT. ALLERDINGS SOLLTE DAS STREBEN NACH GRÖSSTMÖGLICHER DATENQUALITÄT AUCH DIE INTERNE PRÜFUNG DER FOLGENDEN FAKTOREN UMFASSEN: 1. Datenlatenz: Betrachten Sie alle drei Dimensionen der Datenlatenz im Unternehmen: das zeitliche Auftreten der Daten, die Dauer des Ereignisses und die Zeitspanne für die Entscheidung. 2. Datenkorrelation: Ermitteln Sie gemeinsam mit Geschäftsanwendern den Kontext der Daten und definieren Sie Beziehungen zwischen den verschiedenen verwendeten Datensätzen unter Berücksichtigung von Wachstumsraten und doppelt vorhandenen Quellen. 3. Self-Service: Legen Sie fest, wie Power-User die Daten für ihre Abfragen nutzen können, ohne IT- und andere Ressourcen über Gebühr zu belasten. 4. Chief Data Officer: Übertragen Sie die Aufgaben eines Chief Data Officer an einen erfahrenen Mitarbeiter um sicherzustellen, dass sowohl die operative Qualität der Daten als auch die Unternehmensführung und -kontrolle gewährleistet sind. (Ob der Mitarbeiter den Titel eines CDO führt, ist dabei zweitrangig.) Die Wichtigkeit der Datenqualität kann gar nicht hoch genug gestellt werden. So zeigte eine Untersuchung der University of Texas, dass die Qualität bzw. Effektivität der Daten sowohl den Umsatz als auch den Gewinn der Unternehmen beeinflusst. Maßgebliche Einflussfaktoren sind dabei: Finanzielle Auswirkungen auf Bereiche wie Mitarbeiterproduktivität, Eigenkapitalrendite (ROE), Rendite auf das investierte Kapital (ROIC) und Gesamtkapitalrendite (ROA) Kundenfokussierte Auswirkungen auf Bereiche wie Innovationsfähigkeit und Umsatzerwirtschaftung aus neuen Produkten sowie die Fähigkeit zur Erweiterung der bestehenden Kundenbasis Operative Auswirkungen auf Bereiche wie Kapazitätsauslastung, Planungs- und Prognosegenauigkeit, zeitgerechte Produktlieferung bzw. Servicebereitstellung

9 KAPITEL 1: DIE BIG-DATA-LÜGE Gesucht: mehr Daten 1995 FAND die erste internationale Konferenz zum Thema Knowledge Discovery und Data Mining in Montreal statt. Das Symposium beschäftigte sich mit der vorherrschenden Ansicht, dass das Potenzial der großen Datenmengen für Gesellschaft und Unternehmen nicht ausreichend ausgeschöpft würde, da der einzelne Anwender mit ihrer Analyse schlicht überfordert sei. In der Konferenzbroschüre schrieben die Veranstalter: Datenbanken und Datensätze haben eine Größe erreicht, die menschlichen Nutzern selbst eine Teilanalyse unmöglich macht, und ersticken die Nutzer damit regelrecht. Dieses Phänomen, bei dem Daten wie aus einem Feuerwehrschlauch auf den Nutzer niederprasseln, findet sich in vielen Bereichen, z. B. in der wissenschaftlichen Datenanalyse, im Medizinsektor und Gesundheitswesen, auf Unternehmens- und Marketingebene sowie in den Finanzmärkten. 12 Eines der Kernziele der Konferenz bestand darin, sich über neueste Methoden, statistische Modelle, Technologien für maschinelles Lernen und andere nicht Hardware-gestützte Ansätze auszutauschen, mit denen ein Überblick über die wachsende Datenflut erreicht werden sollte. Die Konferenzteilnehmer diskutierten Themen wie die Nutzung umfangreicher Datenmengen zur Erkennung von Betrugsdelikten oder die Rolle von Big Data bei der Entwicklung neuer Medikamente gegen HIV. In beiden Fällen hat die Kombination großer Datenvolumen mit modernsten Analyseverfahren immense Fortschritte gebracht war auch das Jahr, in dem spaltenorientierte oder Column-Store-Datenbanken auf den Markt kamen. Dieser Ansatz, der sich vom klassischen Einheitskonzept der relationalen Datenbanken grundlegend unterschied, war bahnbrechend für die Schaffung eines Analytics Data Warehouse (siehe Kapitel 2). Dank einer spaltenorientierten Analyseinfrastruktur brauchen sich die Unternehmen heute keine Sorgen über Big Data zu machen und können sich stattdessen voll auf die Vorteile dieses Phänomens konzentrieren. Massive Datenmengen, selbst wenn sie so heterogen sein sollten wie unstrukturierte Daten, können in spaltenorientierten Data Warehouses problemlos analysiert werden. Spaltenorientierte Data Warehouses punkten zudem durch ihre hohe Verarbeitungsgeschwindigkeit und ausgezeichnete Skalierbarkeit, dank der Sie so viele Anwender und Daten hinzufügen können, wie zur Erledigung der jeweiligen Aufgabe vonnöten sind. Dabei geht es nicht etwa um Funktionalitäten und Performance-Gewinne, die für die Zukunft erwartet oder prognostiziert werden. Es geht nicht darum, Big Data in handlichere Brocken aufzusplitten und auf Data Marts zu verteilen. Es geht weder um die Beschränkung von Nutzergruppen noch um die strikte Kontrolle von Workloads oder die Vermeidung von Ad-hoc-Abfragen. Und es geht erst recht nicht darum, die Analysefähigkeit Ihres 16 17

10 KAPITEL 1: DIE BIG-DATA-LÜGE Vier zentrale Faktoren für Enterprise Analytics BIG DATA ALS UNERBITTLICHES PHÄNOMEN -Datenmengen werden Speicherkapazität überschreiten EXPLOSION DER BENUTZERZAHLEN - Millionen von Data Minern befinden sich in Wartestellung NEULAND BEI UNSTRUKTURIERTEN DATEN - Heterogenität der Daten wird zum Standard NEUE DIMENSION DER GESCHWINDIGKEIT - Datenzufluss erfolgt immer schneller Unternehmens von Big Data beschneiden zu lassen. Vielmehr geht es darum, Big Data innerhalb und außerhalb eines Unternehmens zu identifizieren und mit diesen Daten die Business Intelligence bis ins Innerste des Unternehmens voranzutreiben. Es geht darum, Unternehmen agiler, wettbewerbsfähiger und rentabler zu machen. Ein Beispiel: comscore, ein Anbieter von Cloudbasierten Analyseservices und -lösungen für den E-Commerce, erkannte von Anfang an, dass sich der Fokus beim Webmarketing weg von bloßen Besucherzahlen hin zur Rentabilität verlagerte. Die comscore Customer Knowledge Platform bietet daher einen 360-Grad-Blick auf das Verhalten und die Präferenzen der Kunden bei ihrer Shoppingtour im Internet. Der Service überwacht das Surf- und Kaufverhalten auf jeder besuchten Website und verwendet dabei die Daten von Nutzern, die einer Analyse ihres Internetverhaltens ausdrücklich zugestimmt haben. Da sich Millionen von Webnutzern für die Analyse zur Verfügung stellten, sammelte comscore schnell enorme Datenmengen. Mittlerweile analysiert comscore mehr als 40 Terabyte an komprimierten Daten, wobei Woche für Woche 150 Gigabyte an Daten hinzukommen. Trotz dieses exorbitanten Volumens ist die Reaktionszeit bei Abfragen außergewöhnlich kurz. Laut Ric Elert, Vice President Engineering bei comscore, kann das Unternehmen daher die Daten innerhalb kürzester Zeit analysieren und den Kunden sehr viel schneller Ergebnisse bereitstellen. Unseren Kunden hilft das wiederum, ihre Produkte und Services effektiver zu vermarken und mehr Geschäft zu generieren. Dank Column-Store-Technologie erzielt comscore zudem eine Komprimierungsrate von 40 Prozent. Bei einem traditionellen Ansatz wären die Speicherkosten nach Aussage des Unternehmens erheblich höher. Die Datenkomprimierung ist für uns überaus wichtig, da gigantische Datenströme über unsere Systeme laufen, erläutert Scott Smith, Vice President Data Warehousing bei comscore. Den größten Teil unseres riesigen Datenpools bekommen die normalen Benutzer ja nie zu sehen. Wie comscore, ist auch Suntel durch dynamisches Wachstum charakterisiert. Als am schnellsten wachsender Telekommunikationsanbieter Sri Lankas verzeichnet Suntel bereits heute Kunden. Mit modernster Technologie, innovativen Konzepten und einer ausgeprägten Dienstleistungsorientierung entwickelt das Unternehmen maßgeschneiderte Telekommunikationslösungen, die auch den anspruchsvollsten Anforderungen gerecht werden. Durch die Verbindung aus Innovationsfreude und Top-Technologie positioniert sich Suntel als führender Wegbereiter für den Übergang Sri Lankas in die Wissensgesellschaft. Ein Wermutstropfen bestand für das Unternehmen allerdings darin, dass seine klassische relationale Datenbank mit den ehrgeizigen Zielen nicht Schritt halten konnte. So kam es bei der Abfrageverarbeitung zu inakzeptablen Verzögerungen. Wir waren an einem Punkt angekommen, erklärt Tariq Marikar, Director of Information Technology & Solutions Delivery, an dem unsere Produktionsdatenbank um 20 Prozent über ihrer Auslastungsgrenze lag ein unhaltbarer Zustand. Außerdem wollten wir Reports und Abfragen anhand von Daten erstellen, die mehrere Jahre und nicht nur wenige Monate alt waren. Wir wussten, dass dies nur mit einem separaten Repository möglich war, einem Data Warehouse, das speziell für das Reporting und die Analyse ausgelegt sein musste. Mit einem spaltenorientierten Data Warehouse für modernste Analyseaufgaben gelangte Suntel ohne Umwege ans Ziel. In unserer Branche ist es Kurzprofil comscore 1999 Cloud Gegründet Millionen 150 Gigabyte Erfasst mehr als 3 Millionen Websites 2 Millionen 40 Terabyte Mehr als 2 Millionen Verbraucher lassen ihr Konsumverhalten konstant erfassen Cloud-basierter Anbieter von Daten zum Online-Kundenverhalten Enormes Datenvolumen mit wöchentlicher Zunahme von 150 Gigabyte 40 Terabyte komprimierte Daten 40% Komprimierungsrate

11 KAPITEL 1: DIE BIG-DATA-LÜGE unabdingbar, große Mengen an historischen Daten anzeigen und analysieren zu können, ergänzt Marikar. Wie der Vertreter von comscore lobt auch er den spaltenorientierten Ansatz, der mit seiner hervorragenden Komprimierung den Platzbedarf für die Daten unserer Produktionsdatenbank auf ein Drittel verringert hat. Marikar weiter: Skalierbarkeit heißt, dass wir eine steigende Zahl von Nutzern unterstützen können, wenn wir diesen Datenschatz in Zukunft heben werden. So wollen wir anhand der Daten z. B. die Kundenerfahrung für unterschiedlich große Kunden individuell gestalten und außerdem Programme für das Cross- und Up-Selling unserer Services einführen. In Spanien organisiert das spaltenorientierte Data Warehouse von Airtel-Vodafone den Datenpool gemäß der Business Map des Unternehmens. Dadurch bleiben Konsistenz und Integrität der Kurzprofil Airtel Vodafone Millionen Im Jahr 2000 aus Merger der Anteilspakete von British Telecom und Vodafone an Airtel Móviles hervorgegangen Airtel Móviles seit 1995 am Markt 100% Mehrdimensionale Umfassende Daten-integration über alle Abteilungen hinweg Daten auch dann gewahrt, wenn viele verschiedene Abteilungen ein und dieselben Daten nutzen. Das Data Warehouse wandelt Daten in Wissen um und macht Fakten über eine eigene Schnittstelle zu wertvoller Business Intelligence. Die Fähigkeit zur präzisen Analyse und Prognose der Kundenaktivität ist von essenzieller Bedeutung für die übergeordnete Geschäftsstrategie des Unternehmens. Auch das spaltenorientierte Data Warehouse von Airtel-Vodafone bewältigt das immense Abfrage-Aufkommen ohne Probleme. Mehr als Beschäftigte nutzen es für die systemtechnisch besonders anspruchsvolle mehrdimensionale Analyse. Diese Form der Analyse, bei der eigene Informationsstrukturen zum Einsatz kommen, ermöglicht die Extraktion von Daten zu Kunden, Infrastrukturen und Unternehmensprozessen und gestattet den Nutzern die Erzeugung von Modellierungs- und Simulationsprozessen 14 Millionen Kunden Data Warehouse-Nutzer Mehrdimensionale Analyse -Kunden -Infrastruktur -Geschäftsprozesse einschließlich spezieller, analyseergänzender Verfahren. Auch Data-Mining-Techniken werden herangezogen, um mehr über das Verhaltensmuster der Kunden zu erfahren. Mitarbeiter mit Kundenkontakt speisen die Tag für Tag gewonnenen Informationen in das System ein, wo sie mit den bereits im Warehouse vorhandenen Daten integriert werden. All diese Daten werden miteinander kombiniert und in Informationsstrukturen umgewandelt, die dann für Abfragen zur Verfügung stehen. Das spaltenorientierte Data Warehouse ermöglicht den Datenzugriff nach Workflow anstelle nach der hierarchischen Unternehmensstruktur, was zu einer höheren Produktivität und Effektivität der Mitarbeiter führt. Damit stehen den Mitgliedern der Marketingabteilung beispielsweise dieselben Informationen zur Verfügung wie den Finanzexperten des Unternehmens, obwohl das Data Mining unter einem völlig anderen Blickwinkel und anhand ganz unterschiedlicher Analysen erfolgt. Die Data-Warehouse- Umgebung umspannt Marketingdatenbanken, Anrufsysteme, Kundenservice, Statistikdaten aus dem GSM-Netzwerk, Fakturierungssysteme, Datensammlung und -abruf sowie sämtliche Logistikinformationen. Airtel-Vodafone verfügt damit über eine maßgeschneiderte Lösung, mit der sich Daten aus den verschiedensten operativen Umgebungen schnell und kostengünstig integrieren lassen. Informationen zu den Unternehmensaktivitäten können im gewünschten Detailgrad direkt aus der Data-Warehouse-Umgebung abgerufen werden. Durch sein spaltenorientiertes Data Warehouse konnte Airtel-Vodafone seinen Marktanteil steigern und sich als Top-Player im europäischen Telekommunikationsmarkt etablieren. ButUmmm Sorry! Ooops My bad Kein Grund zur Panik DIE HIER GENANNTEN BEISPIELE sind nur ein kleiner Teil der Unternehmen, die aus eigener Erfahrung wissen, dass Big Data keine Katastrophe, sondern eine Chance ist. Weitere Beispiele für ähnlich erfolgreiche Unternehmen folgen in den späteren Kapiteln dieses Guides. Sie illustrieren weitere wichtige Aspekte des aktuellen Technikstands in der Unternehmensanalyse. Die Analysebranche hat heute keinerlei Entschuldigungen mehr, wenn es darum geht, Big Data für sich nutzbar zu machen. Sie hat keinerlei Ausflüchte, wenn es darum geht, ihre Analytics Data Warehouses für Tausende von Nutzern fit zu machen oder die Analyse auf variable Datentypen aus jeder nur denkbaren Quelle auszudehnen, wie beispielsweise auf die massiven, unstrukturierten Datenmengen von Social-Media-Websites. Lassen Sie uns eines ganz klarstellen: Die Analysebranche kann sich nicht mehr hinter dem Big- Data-Schreckgespenst verstecken, denn wir wissen, es ist lediglich das: ein Gespenst

12 KAPITEL 2: INTELLIGENZ FÜR JEDERMANN Intelligenz für jedermann 22 23

13 KAPITEL 2: INTELLIGENZ FÜR JEDERMANN EINE GEMEINSAMKEIT der analysegetriebenen Unternehmen aus Kapitel 1 besteht darin, dass ihre IT-Leiter wissen: Moderne BI- Umgebungen müssen steigende Informationsmengen verarbeiten, kürzere Antwortzeiten bereitstellen und größer werdende Nutzerzahlen unterstützen. Die IT-Verantwortlichen sind sich bewusst, dass wachsende Datenmengen zu wachsenden Nutzerzahlen führen, die immer mehr geschäftliche Gründe dafür haben, diese Datenmengen abzufragen. Tatsächlich kann die Zunahme der Nutzerpopulation für manche Anbieter von Data Warehouses (und damit auch für ihre Kunden) ein sehr viel größeres Problem sein als das so gefürchtete Big-Data-Phänomen. Bis zu einem gewissen Grad kann jedes System so angepasst werden, dass es auch größere Datenmengen besser bewältigt. Anwender aber lassen sich sehr viel weniger gut managen. Ihre Abfragen, die von ihnen verursachten Workloads und Aktivitäten können nicht vorhergesagt werden. Sie sind die große Unbekannte in jeder Analytics-Umgebung. Wenn Sie jedoch das System nicht an die Bedürfnisse der Nutzer anpassen können, können Sie auch nicht jedem Unternehmensanwender die benötigte Business Intelligence bereitstellen. Intelligenz für jedermann ist für Airtel-Vodafone, comscore, Suntel und viele andere keine Illusion. All diese Unternehmen können ihren rasch wachsenden Nutzerpopulationen wertvolle Business Intelligence bereitstellen, da sie bereits in der Frühphase der BI-Einführung die Vorstellung von einem Universal-Tool für alle Analyseaufgaben auf den Prüfstand gestellt haben. Standard-Datenbanktechnologien eignen sich zweifellos für eine Vielzahl von Anwendungen. Ein Enterprise Data Warehouse (EDW) ist eine hervorragende Lösung für eine überschaubare Zahl von Nutzern, die regelmäßige Reports und strategische Einblicke benötigen, bei denen Zeit oder Performance keine gewichtige Rolle spielen. Wenn Sie Ihre Analyse-Tools jedoch einer großen und weiter wachsenden Zahl von Anwendern bereitstellen wollen, die den Umfang und die Heterogenität der Daten zunehmend erhöht, immer mehr Ad-hoc-Abfragen stellt und die Systemauslastung kontinuierlich steigert, dann stoßen Sie mit einer Universallösung schnell an Ihre Grenzen. Wenn es um Analysen geht, lassen sich die inhärenten Beschränkungen eines Enterprise Data Warehouse nicht mehr wegmogeln, indem Sie einfach ein neues Modul hinzufügen oder in mühevoller Arbeit versuchen, das System zu einzustellen. Dieser Weg ist eine Sackgasse. Aber warum gelangen EDWs eigentlich so schnell an die Grenzen ihrer Möglichkeiten, wenn es um die unternehmensweite Analyse geht? War dies denn nicht der ursprüngliche Zweck eines Enterprise Data Warehouse? Warum prognostiziert Gartner trotz der vielen Milliarden, die in EDW- Investitionen geflossen sind: Bis 2012 werden 35 Prozent der globalen Top-5000 regelmäßig scheitern, wenn sie anhand ihres Daten-Pools fundierte Entscheidungen zu signifikanten Veränderungen in ihrem Unternehmen und ihren Märkten treffen wollen 13? Die Antwort führt uns zurück zur Technologie und zu einer weiteren Frage: Warum ist die Architektur Ihrer Data-Warehouse-Software so überaus wichtig? Ganz einfach: Weil sie das Fundament ist, auf dem Sie Business Intelligence für jedermann bereitstellen können. Analyse revolutioniert die Arbeitswelt Geschäftsführung Manager Wissensarbeiter Marketing Vertrieb Operatives Geschäft Servicetechniker Partner Sofortiger Einblick Smarteres Metrikgestützte in alle Sachverhalte Programmmanagement Kampagnen Schnellere Ummünzung von mehr Daten in mehr Wissen Schnellere, gezielte Ansprache besonders rentabler Kunden Mehr Kontrolle, weniger Produktionspannen Schnellere Problemevaluierung und -behebung Bessere Überschaubarkeit der Supply Chain 24 25

14 KAPITEL 2: INTELLIGENZ FÜR JEDERMANN EDWs: die Achillesferse des Unternehmens? IN SEINER KOLUMNE THE STORY SO FAR 14 schreibt der laut White für den Analysesektor hat. langjährige Branchenbeobachter Frank Hayes, Ein universelles Enterprise Data Warehouse beruht dass das Konzept des Data Warehousing mehr auf einer zeilenbasierten Datenbank (siehe Kasten: als 25 Jahre zurückreicht lange bevor der Begriff Drei Ansätze zur Speicherung von Analysedaten). Data Warehouse überhaupt geprägt wurde. Dies ist ideal für eine transaktionsorientierte Damals schien es machbar, alle relevanten Verarbeitung, die primär auf die Aufzeichnung Geschäftsdaten in einem zeilenbasierten, universellen eines Ereignisses abzielt. Nehmen wir z. B. an, Kunde X und transaktionsorientierten Datenbanksystem kauft ein Gerät Y. Wenn die Datenbank das Ereignis zusammenzufassen. Von Big Data hatte noch in das Speichersystem schreibt, werden alle Attribute keiner etwas gehört, und die Zahl der potenziellen der Transaktion berücksichtigt Kundendaten, Analytics-Anwender war gering. Folglich investierten Preisinformationen, Gerätespezifikationen, Datum/ IT-Verantwortliche erhebliche Summen in Enterprise Uhrzeit und viele andere Informationen, die alle in Data Warehouses als primäre Infrastruktur für der aufgezeichneten Transaktion enthalten sind. Analyseanwendungen. Wenn ein Business-Analyst jedoch einen Teilsatz Dies führte zu einem fundamentalen Problem, dieser Attribute näher untersuchen möchte, muss wie BI-Experte Colin White herausstellt. Seiner ein Universal-EDW erst alle Attribute in den Speicher Ansicht nach wurden EDWs in erster Linie eingeführt, laden, bevor mit der Analyse begonnen werden um konzeptionelle Schwächen von Geschäftstrasaktionssystemen zu beheben. Auf Betreiben der Datum/Uhrzeit der Transaktion und der Art des kann. Wenn Sie z. B. nur die Beziehung zwischen Anbieter sei der Leistungsanspruch der Systeme verkauften Gerätes ermitteln und diese Daten dann aber so ausgeweitet worden, dass mittlerweile dann mit externen Informationsquellen koppeln Business Intelligence mit Data Warehousing möchten, ist das System außerstande, nur die gleichgesetzt wird. White weiter: Diese Gleichsetzung relevanten Daten zu extrahieren, sondern muss erst ist falsch und muss dringend korrigiert werden. 15 sämtliche Kunden- und Preisdaten der Transaktion Lassen Sie uns also eines der technologischen abrufen. Dieser Mehraufwand führt zwangsläufig Defizite betrachten, die ein EDW-Einheitskonzept zu deutlich längeren Antwortzeiten

15 KAPITEL 2: INTELLIGENZ FÜR JEDERMANN Abb Drei Ansätze zur Speicherung von Analysedaten Column-Store- oder spaltenorientierter Ansatz Speichert die Daten in Spaltenform und ermöglicht einen hohen Komprimierungsgrad, wodurch sich der Speicherplatzbedarf signifikant verringert. Der Column-Store-Ansatz verkürzt zudem die Reaktionszeit bei Datenabfragen, da die Daten sehr viel schneller ausgelesen werden können, als dies bei herkömmlichen Verfahrensweisen möglich ist. Beim Laden in die Datenbank werden die Daten automatisch indexiert. In-Memory-Ansatz Speichert alle Daten im RAM. Trotz seiner unbestrittenen Schnelligkeit ist dieser Ansatz in 32-Bit-Umgebungen aufgrund der relativ geringen Speicherkapazität nicht effektiv. In 64-Bit-Systemen mit ihrem inhärent größeren RAM kann er sinnvoll sein, ist aber mit höheren Kosten verbunden. Zeilenbasierter Ansatz Speichert die Daten in Zeilenform auf der Festplatte. Der zeilenbasierte Ansatz ist ideal für die transaktionsorientierte Aufzeichnung der Daten, erschwert jedoch ihre Indexierung und kann bei Performance und Skalierbarkeit mit neueren Technologien nicht mithalten. Eine solide Analyse-Architektur Architektur WENN DIE GUTE ALTE RELATIONALE DATENBANK NICHT DIE RICHTIGE WAHL IST, WAS IST ES DANN? WIE SEHEN DIE ZENTRALEN ARCHITEKTURMERKMALE EINES ANALYTICS DATA WAREHOUSE AUS? Verfechter von universellen EDW-Lösungen zeilenbasierter relationaler Datenbanken gibt mittlerweile zu, dass die Technologie ihre besten Zeiten werden nun argumentieren, dass es Technologien zur Behebung der erwähnten Defizite gibt. Dabei setzen hinter sich hat, und bezeichnet sie als in die Jahre sie primär auf die Generierung und Speicherung gekommen 16. separater Indexe, um so die längeren Antwortzeiten zu Data Warehouses wurden für Geschäftstransaktionen entwickelt, und da so viele Unternehmensdaten kompensieren. Dem ist entgegenzuhalten, dass die Performance von Universal-EDWs mit ausgeklügelten in ihnen lagern, wurden sie nach und nach mit Tricks zwar erhöht werden kann, dass dies jedoch Analysefähigkeiten ausgestattet. Man könnte also stets mit einem erheblichen Zeit- und Kostenaufwand sagen, dass aus Universal-EDWs fast schon versehentlich verbunden ist und das Management der Systeme Analyse-Engines wurden. deutlich erschwert. Es beschränkt außerdem die Aus Nutzersicht sollte dieses Versehen schleunigst flexible Erzeugung verschiedener Abfragetypen, korrigiert werden. Denn wenn die Reaktionszeit falls die IT-Abteilung die notwendigen Indexe nicht ein kritischer Faktor ist oder wenn die Unterstützung sorgfältig genug generiert hat. Und selbst wenn von Hunderten, ja Tausenden Nutzern über Wohl alles richtig gemacht wird, können Universallösungen maßgeschneiderten Analyse-Engines hin- werden EDW-Einheitslösungen aufgrund ihrer und Wehe eines Unternehmens entscheidet, dann sichtlich Performance und Skalierbarkeit nicht das mangelnden Performance und Skalierbarkeit nur Wasser reichen. Selbst einer der Pioniere allzu leicht zur Achillesferse des Unternehmens

16 KAPITEL 2: INTELLIGENZ FÜR JEDERMANN Vorteile der Unternehmensanalyse WIE IN KAPITEL 1 BEREITS ERWÄHNT, benötigen Sie zunächst eine speziell für diese Aufgabe entwickelte Analyse-Engine. Eine solche Engine verwendet vermutlich einen Column-Store- oder spaltenorientierten Ansatz für die Datenspeicherung. Einer der größten Vorteile der spaltenorientierten Technologie besteht in der ausgezeichneten Kompressionsfähigkeit. Dass dies nicht nur in der Theorie, sondern auch in der Praxis ein handfester Vorteil ist, zeigt das Beispiel der deutschen Citigroup-Tochter. Ihre spaltenorientierte Datenbank enthält Handelsdaten aus vier Jahren (13,2 Millionen Transaktionen!) und erzielt eine Komprimierungsrate von 43 Prozent. Ein herkömmliches zeilenbasiertes System würde demgegenüber jeden Deal, den die Citigroup-Tochter in ihrer Datenbank speichert, um 4 Prozent vergrößern. Ähnlich sieht es bei comscore aus. Der Experte für Analysen über und für Online-Unternehmen konnte den Speicherplatzbedarf seiner immensen Datensammlung um 40 Prozent verringern. Andere Unternehmen erzielten mit einem zeilenorientierten System sogar Komprimierungsraten von bis zu 70 Prozent. Strategie-Leitlinien -Akquisitionen -Bewertung von Initiativen -Marktstrategien Geringeres Risiko und höhere Compliance -Weniger Beurteilungsfehler -Besseres Datenmanagement und effizientere Workflows -Bessere Speicherung und Zugänglichkeitder Daten Geschäfts-wert Verfeinerte KPIs -Bessere Metriken -Präzisere Messung -Bessere Feedbackprozesse Mehr Innovation -Gezielte Produkt-/Service-Entwicklung -Kürzere Markteinführungszeit -Weniger Konstruktionsfehler 30 31

17 KAPITEL 2: INTELLIGENZ FÜR JEDERMANN Aber die Komprimierung ist nur ein Vorteil der Verglichen mit herkömmlichen Universal-EDWs, Column-Store-Technologie. Schließlich geht es die für die Datenindexierung langwierige manuelle Ihnen ja nicht nur um die Speicherplatzverringerung, sondern darum, ein System mit modernsten spaltenorientierte Datenbank die Daten automatisch, Tuning-Schritte benötigen, indexiert eine Analysefähigkeiten zu erhalten. Die Architektur sobald sie in das System geladen werden. eines solchen Systems muss imstande sein, die Auch bei der Skalierung schneidet eine komprimierten Daten mittels Massively Parallel Spezialarchitektur sehr viel besser ab. Der Schlüssel Processing (MPP) zu parallelisieren ein entscheidender hierfür liegt in der Verwendung einer Shared-Everythinganstelle einer Shared-Nothing-Technologie. Performance-Gewinn. Denn obwohl alle spaltenorientierten Systeme die komprimierten Ein MPP-gestütztes Data Warehouse mit einem Daten automatisch indexieren, verfügen keineswegs Shared-Everything-Ansatz kann Abfragelasten alle über dieselbe Architektur. Einige legen eine über alle Netzknotenpunkte hinweg dynamisch Meta-Ebene über die Daten, um deren Verarbeitung managen und ausbalancieren. Es verwendet einen durch das MPP-System zu ermöglichen. Diese automatischen Load Balancer, mit dem sich die Meta-Ebene beeinträchtigt die Rohleistung, die Rivalität um kostbare Ressourcen wirksam vermeiden Verarbeitungsperformance bei Ad-hoc-Abfragen lässt. Das Ergebnis ist eine berechenbar hohe und das Wachstum der Nutzerzahlen; zur Bewältigung Performance und Ressourceneffizienz für ein der Big-Data-Herausforderung kann sie sich gar als breites Spektrum von gleichzeitigen Workloads. völlig ungeeignet erweisen. Eine Shared-Everything-Architektur unterstützt Das spaltenorientierte Fundament einer die unabhängige Skalierung von Datenspeichervolumen und gleichzeitigen Nutzerabfragen und maßgeschneiderten Analyse-Architektur ermöglicht unter anderem eine schnellere Implementierung. vereint so eine hohe Leistungsfähigkeit mit einem Unstrukturierte Daten ein ungehobener Schatz Flickr umfasst mehr als 5 Milliarden Bilder. Mehr als 30 Milliarden Beiträge werden monatlich auf Facebook gepostet. 98 Millionen Tweets gehen täglich über Twitter. YouTube-Nutzer laden jede Minute Videos mit einer Länge von insgesamt 24 Stunden hoch. LinkedIn beinhaltet mehr als eine Million Unternehmensprofile. einfachen Management. Damit können Sie kontinuierlich weitere Daten und Nutzer hinzufügen, ohne dass bestehende Workloads und Arbeitsabläufe darunter leiden. Ein weiterer Vorteil von Spezialarchitekturen besteht in ihrer Fähigkeit zur In-Database-Analyse. Dies bedeutet, dass alle Workload-relevanten Daten für die Verarbeitung verfügbar sind, ohne dass das System sie von außerhalb abrufen muss. Denn die Verschiebung von Daten ist ein echter Performance-Killer. Wenn Sie hingegen Analysefunktionen und Daten innerhalb der Datenbank unterbringen, können Sie die Reaktionszeiten drastisch verkürzen. Eine maßgeschneiderte Analyse-Architektur wird von vornherein für alle denkbaren Datentypen entworfen. Demgegenüber stammt die Architektur von Universal-EDWs aus Zeiten, in denen BI-Anwendungen ausschließlich strukturierte Daten nutzten. Heutzutage muss dagegen jede ernstzunehmende Analyse-Engine in der Lage sein, BI-Funktionen mühelos auf riesige Mengen unstrukturierter Daten anzuwenden, die aus den verschiedensten Quellen in das System strömen (siehe Kasten: Unstrukturierte Daten ein ungehobener Schatz). Nach Schätzung von IDC liegen 90 Prozent der Informationen im digitalen Universum in unstrukturierter Form vor. Universal-EDWs sind schon mit den unstrukturierten Daten aus sozialen Netzen überfordert bzw. führen dazu, dass wichtige Informationen ignoriert werden mit den entsprechend negativen Folgen für die Analysegenauigkeit. Beim Thema Datentypen darf nicht vergessen werden, dass relationale Systeme an der Verarbeitung nicht relationaler Daten nur allzu leicht scheitern können. So stellt die Analyse von hierarchischen XML-Daten, unstrukturierten Weblogs und Punkt-zu- Punkt-Diagrammen relationale Datenbanken vor ein unlösbares Problem. Maßgeschneiderte Analysesysteme mit einer sorgfältig konzipierten Architektur kommen dagegen sogar mit diesen Datentypen zurecht. Zusätzlich zur Verarbeitung ständig anwachsender und scheinbar unendlich vielfältiger Daten müssen Analyse-Engines noch eine weitere Hürde nehmen: die gleichzeitige Bewältigung zahlreicher Workloads. Sie dürfen bei keiner Aufgabe wie anspruchsvoll auch immer in die Knie gehen. Wenn der DBA neue Daten aus externen Quellen in die Datenbank lädt und gleichzeitig verarbeitungsintensive Batch-Berichte zu erstellen sind, muss das System trotzdem die Ad-hoc-Abfragen der diversen Nutzerpopulationen mühelos abarbeiten können. Workload-Variabilität ist eine essenzielle Voraussetzung für die Analyselandschaft des 21. Jahrhunderts. Zudem muss gewährleistet sein, dass Geschäftsanalysten standardmäßige SQL-Tools für ihre Abfragen nutzen können. Auch sollte es möglich sein, Executive Dashboards ohne einen Wechsel des Visualisierungs-Tools zu nutzen. Und schließlich sollten Entwickler bei der Erstellung von BI-Apps neueste Programmierfortschritte wie MAP Reduce nutzen können. Eine maßgeschneiderte Architektur stellt jedem Unternehmensanwender die benötigten Analysefunktionen zur Verfügung. Sie deckt das ganze Spektrum der Datentypen ab und unterstützt gleichzeitig eine dramatische Ausweitung des zu verarbeitenden Datenvolumens. All dies ohne Einbußen bei der Performance oder Skalierbarkeit. Auf den folgenden Seiten erfahren Sie, wie Unternehmen ihre BI-Probleme mit einer auf sie zugeschnittenen Analytics-Technologie konkret in den Griff bekommen haben

18 KAPITEL 3: BUSINESS ANALYTICS IN DER PRAXIS Business Analytics in der Praxis 34 35

19 KAPITEL 3: BUSINESS ANALYTICS IN DER PRAXIS JEDE BRANCHE HAT IHRE GANZ SPEZIELLEN BESONDERHEITEN. Das gilt auch für Unternehmen, selbst wenn sie innerhalb ein und derselben Branche tätig sind. Dennoch steht fast jedes Unternehmen in jeder Branche vor denselben zwei eng miteinander verwobenen Problemen: Was tun mit all den Informationen, die 24 Stunden am Tag in das Rechenzentrum strömen? Wie umgehen mit der steigenden Zahl von Anwendern, die diese Informationen analysieren wollen? Im Gesundheitsweisen wird die Umstellung auf elektronische Patientenakten und die resultierende Analyse von Patientendaten dadurch vorangetrieben, dass sich die Anbieter davon jährliche Einsparungen von mehreren 707 Milliarden Euro versprechen. 17 In der Produktion konnte durch das Lieferketten- Outsourcing laut McKinsey zwar viel Geld gespart Aufgabe Massiver Datenzufluss in Echtzeit Extrem kurze Entscheidungszeiten Komplexes, ständig im Wandel befindliches Rechtsumfeld werden; gleichzeitig ist es aber für Unternehmensleitung, Geschäftsanalysten und Prognoseexperten wichtiger denn je, möglichst viele Informationen über sämtliche Aspekte von der Rohstoffverfügbarkeit bis zu den Lagerbeständen bei Partnerfirmen zu sammeln, abzurufen, zu speichern und zu analysieren 18. Und Handelskonzerne wie Wal-Mart mit einem täglichen Volumen von 267 Millionen Transaktionen 19 stellen fest, dass die Einbindung von Customer Insight in Geschäftsentscheidungen dramatische Wettbewerbsvorteile bringen kann 20. In diesen und anderen Branchen erwarten immer mehr Nutzer von ihrem CIO, dass er ihnen Zugang zu der ins Unternehmen strömenden Datenflut gibt und deren Analyse ermöglicht. Natürlich erwarten sie außerdem, dass die Reaktionszeit auf ihre Abfragen dem entspricht, was sie von Innovation im Analytics-Bereich: Finanzdienstleistungen Innovation Analytics Engine, die immense Datenmengen problemlos bewältigt Reaktionszeiten im Millisekunden-Bereich Einfaches Management von Datenspeicherung und -zugriff für eine zuverlässige Einhaltung der Vorgaben zur langfristigen Daten-aufbewahrung Suchmaschinen wie Google oder Bing kennen. Der sofortige Zugriff auf Informationen und Antworten ist aber nicht nur ein Trend oder eine Erwartung, er ist ein absolutes Muss für jedes Unternehmen. Dabei kann das, was wir Menschen unter sofort verstehen, für manche Märkte zu langsam sein. Unternehmen, die in diesen Märkten aktiv sind, benötigen eine Analyse in Machine-to- Machine (M2M)-Geschwindigkeit. Die Beschleunigung zum Machine-to-Machine- Takt findet sich laut Wall Street & Technology besonders in der Finanzindustrie, wo sich die Frist für Entscheidungen von Mikrosekunden zu Millisekunden und Nanosekunden immer weiter verkürzt. Analysefunktionen werden hier auf Geschäftsprozesse für Finanztransaktionen angewendet, die von Computern ausgeführt werden, da nur noch Computer fähig sind, mit der reißenden Geschwindigkeit des Datenstroms mitzuhalten. Die immensen Kosten der hierfür notwendigen Technologien führen dazu, dass nur die ganz Großen der Branche imstande sind, dieser Entwicklung durch immer schnellere Hardware und Netzwerke zu begegnen. Für alle anderen besteht laut Larry Tabb, CEO des Analysehauses Tabb Group, der nächste Schritt darin, komplexere Entscheidungen zu treffen. Wenn Ihr Unternehmen also nicht über unbegrenzte Mittel verfügt, müssen Sie ganz einfach smarter werden. Konkurrenzfähig wird laut Tabb nur der sein, der die Hürden für die Analyse senkt. 21 Ähnlich wie Finanzdienstleister werden auch Telekommunikationsunternehmen unter einer regelrechten Datenlawine begraben, aus der sie Die erfolgreiche Bewältigung der Datenflut DIE OPTIONS PRICE REPORTING AUTHORITY (OPRA) ist nur einer der vielen Marktdaten-Feeds, zu denen auch Consolidated Quote System, New York Stock Exchange Open Book, NASDAQ Trade Data Dissemination Service und zahlreiche andere gehören. Neben anderen essenziellen Informationen zu den Finanzmärkten stellt sie detaillierte Daten zu abgeschlossenen Handelstransaktionen und aktuellen Optionen bereit. Dabei entsteht Sekunde für Sekunde ein unvorstellbares Datenvolumen, das ständig weiter anschwillt. Jährliche Spitzenwerte bei den Nachrichten pro Sekunde (MPS): OPRA-Abonnenten müssen gigantische Datenmengen meistern können: Bei einem Durchschnittswert von 120 Bytes pro MPS ergeben sich 264 MByte, die jede Sekunde allein über OPRA eingespeist werden

20 KAPITEL 3: BUSINESS ANALYTICS IN DER PRAXIS Innovation im Analytics-Bereich: Gesundheitswesen Aufgabe Innovation Unterstützung bei der Konsolidierung und Analytics-Technologien, die Data Mining, Analyse großer Datenvolumen mit dem Ziel, statistische Analyse, Prognose, prädiktive die Forschung zu beschleunigen, die Modellierung und Optimierungstechniken Gesundheitsversorgung zu verbessern und nutzen, um strategische und operative die Kosten zu senken Entscheidungen und Maßnahmen zu Unterstützung beim Anpassungsdruck unterstützen infolge des ständigen Wandels der gesetzlichen Technologien, die den immer neuen Vorschriften und Regelungen HIPAA-Anforderungen entsprechen und die Integration von Geschäfts-prozessen wirksam unterstützen Die Ummünzung von Big Data in greifbare Vorteile 12B56 Echtzeit-BI destillieren müssen. Europäische Tier 1-Anbieter verzeichneten von 2007 bis 2010 eine Zunahme ihres Datenvolumens um 700 Prozent. In Lateinamerika verdoppelte sich der Datenzustrom bei vergleichbaren Anbietern in nur vier Jahren von 5 auf 10 Terabyte. Damit nicht genug: Der von Smartphones erzeugte Netzverkehr wird von 18,5 Prozent 2009 auf geschätzte 56 Prozent im Jahr 2015 steigen und so die Datenmenge weiter nach oben treiben. 22 Allein die Fülle und Geschwindigkeit, mit der die Informationen in die Rechenzentren der Telekommunikationsanbieter strömen, würde wie im Finanzsektor auch einen menschlichen Analysten komplett überfordern. Echtzeitentscheidungen sind z. B. für die Sicherstellung der Dienstgüte (QoS) relevant und müssen auf Basis einer Analyse getroffen werden, die in Geschäftsprozesse integriert ist, wobei Letztere wiederum von Computern verarbeitet werden. Angesichts dieses Big-Data-Szenarios raten manche Branchenvertreter dazu, bei der Datenanalyse nach dem Motto Weniger ist mehr zu handeln. Dieser Ratschlag kommt häufig von Anbietern, die eben nicht über die Technologie für die Bewältigung von Big Data verfügen und Ihnen weismachen wollen, dass die Analyse von kleineren Datenmengen völlig ausreichend sei. Wie Googles Chief Economist Hal Varian bemerkt, zeigt ein genauerer Blick zwar, dass die Analyse eines kleinen, zufällig gewählten Datenausschnitts durchaus valide Ergebnisse erbringen kann. Um eine wirklich zufällige Datenauswahl zu erhalten, benötigen Sie jedoch einen gewaltigen Daten-Pool. Ohne einen derartigen Pool sind Ihre Analyseprozesse nicht wirklich stichhaltig. Anders ausgedrückt: Big Data ist die beste Voraussetzung für den Erhalt valider Daten. 23 Wenn ein Anbieter also wieder einmal argumentiert, dass kleine Datenvolumen ausreichen, liegt das vermutlich daran, dass er Big Data nicht gewachsen ist. 57>4d 38 39

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd.

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd. Warum viele Daten für ein smartes Unternehmen wichtig sind Gerald AUFMUTH IBM Client Technical Specialst Data Warehouse Professional Explosionsartige Zunahme an Informationen Volumen. 15 Petabyte Menge

Mehr

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 0 Es TOP 10 DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 wird ein wichtiges Jahr für BIG (Business Intelligence Growth) 2012 war ein fantastisches Jahr für Business Intelligence! Die biedere alte

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit Big Data und Business Analytics für Kunden und Unternehmen Umfangreiche und ständig anwachsende Datenvolumen verändern die Art und Weise, wie in zahlreichen Branchen Geschäfte abgewickelt werden. Da immer

Mehr

SAS Analytics bringt SAP HANA in den Fachbereich

SAS Analytics bringt SAP HANA in den Fachbereich Pressemitteilung Hamburg, 08. November 2013 SAS Analytics bringt SAP HANA in den Fachbereich Ergonomie kombiniert mit Leistungsfähigkeit: die BI-Experten der accantec group geben der neuen Partnerschaft

Mehr

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data: Nutzen und Anwendungsszenarien CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data steht für den unaufhaltsamen Trend, dass immer mehr Daten in Unternehmen anfallen und von

Mehr

Infografik Business Intelligence

Infografik Business Intelligence Infografik Business Intelligence Top 5 Ziele 1 Top 5 Probleme 3 Im Geschäft bleiben 77% Komplexität 28,6% Vertrauen in Zahlen sicherstellen 76% Anforderungsdefinitionen 24,9% Wirtschaflicher Ressourceneinsatz

Mehr

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen 01000111101001110111001100110110011001 Volumen 10 x Steigerung des Datenvolumens alle fünf Jahre Big Data Entstehung

Mehr

Big Data Vom Hype zum Geschäftsnutzen

Big Data Vom Hype zum Geschäftsnutzen Big Data Vom Hype zum Geschäftsnutzen IBM IM Forum, Berlin, 16.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Hype 15.04.2013 BARC 2013 2 1 Interesse an Big Data Nature 09-2008 Economist 03-2010

Mehr

vfabric-daten Big Data Schnell und flexibel

vfabric-daten Big Data Schnell und flexibel vfabric-daten Big Data Schnell und flexibel September 2012 2012 VMware Inc. All rights reserved Im Mittelpunkt: Daten Jeden Morgen wache ich auf und frage mich: Wie kann ich den Datenfluss optimieren,

Mehr

Foto: violetkaipa - Fotolia

Foto: violetkaipa - Fotolia Die D kön Foto: violetkaipa - Fotolia 10 IT-Trend Big Data atenflut steigt wie nen wir sie nutzen? Ständig erhöht sich die Masse der uns umgebenden Daten, Informationen werden immer schneller generiert.

Mehr

Top 10 der Business Intelligence-Trends für 2014

Top 10 der Business Intelligence-Trends für 2014 Top 10 der Business Intelligence-Trends für 2014 Das Ende der Datenexperten. Datenwissenschaft kann künftig nicht nur von Experten, sondern von jedermann betrieben werden. Jeder normale Geschäftsanwender

Mehr

Ihr Weg zu Big Data. Ein visueller Ratgeber

Ihr Weg zu Big Data. Ein visueller Ratgeber Ihr Weg zu Big Data Ein visueller Ratgeber Big Data bringt viele Vorteile Starten Sie hier, um zu erfahren, wie Sie diese nutzen können Mittlerweile hat es sich herumgesprochen, dass Big Data eine große

Mehr

IDC-Studie zu Storage in Deutschland 2013 Unternehmen wappnen sich für die Datenflut

IDC-Studie zu Storage in Deutschland 2013 Unternehmen wappnen sich für die Datenflut Pressemeldung Frankfurt am Main, 14. Juni 2013 IDC-Studie zu Storage in Deutschland 2013 Unternehmen wappnen sich für die Datenflut Stark wachsende Datenmengen forcieren die Anforderungen an Speichertechnologien

Mehr

Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence

Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence IBM Netezza Roadshow 30. November 2011 Carsten Bange Gründer & Geschäftsführer BARC Die Krise hat die Anforderungen

Mehr

Travian Games nutzt Pentaho Datenintegration und Business Analytics zur Optimierung des Spieldesigns

Travian Games nutzt Pentaho Datenintegration und Business Analytics zur Optimierung des Spieldesigns Travian Games nutzt Pentaho Datenintegration und Business Analytics zur Optimierung des Spieldesigns Pentaho ermöglicht Analyse der von den über 120 Millionen registrierten Spielern generierten Datenflut

Mehr

Datawarehouse Architekturen. Einheitliche Unternehmenssicht

Datawarehouse Architekturen. Einheitliche Unternehmenssicht Datawarehouse Architekturen Einheitliche Unternehmenssicht Was ist Datawarehousing? Welches sind die Key Words? Was bedeuten sie? DATA PROFILING STAGING AREA OWB ETL OMB*PLUS SAS DI DATA WAREHOUSE DATA

Mehr

Big Data Mythen und Fakten

Big Data Mythen und Fakten Big Data Mythen und Fakten Mario Meir-Huber Research Analyst, IDC Copyright IDC. Reproduction is forbidden unless authorized. All rights reserved. About me Research Analyst @ IDC Author verschiedener IT-Fachbücher

Mehr

Die Cloud, die für Ihr Unternehmen geschaffen wurde.

Die Cloud, die für Ihr Unternehmen geschaffen wurde. Die Cloud, die für Ihr Unternehmen geschaffen wurde. Das ist die Microsoft Cloud. Jedes Unternehmen ist einzigartig. Ganz gleich, ob im Gesundheitssektor oder im Einzelhandel, in der Fertigung oder im

Mehr

Data Discovery mit Qlik

Data Discovery mit Qlik Data Discovery mit Qlik Performante Datenanalyse, Visualisierung, Storytelling und Data Governance für alle Anforderungen Dr. Stefan Jensen, Director PreSales Qlik Rechtlicher Hinweis Diese Präsentation

Mehr

Big Data Herausforderungen für Rechenzentren

Big Data Herausforderungen für Rechenzentren FINANCIAL INSTITUTIONS ENERGY INFRASTRUCTURE, MINING AND COMMODITIES TRANSPORT TECHNOLOGY AND INNOVATION PHARMACEUTICALS AND LIFE SCIENCES Big Data Herausforderungen für Rechenzentren RA Dr. Flemming Moos

Mehr

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zettabyte CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zetabyte: analytische Datenbanken Die Datenflut. Analytische Datenbanken: Was ist neu? Analytische Datenbanken:

Mehr

Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise

Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise Software AG Innovation Day 2014 Bonn, 2.7.2014 Dr. Carsten Bange, Geschäftsführer Business Application Research Center

Mehr

Die richtige Cloud für Ihr Unternehmen.

Die richtige Cloud für Ihr Unternehmen. Die richtige Cloud für Ihr Unternehmen. Das ist die Microsoft Cloud. Jedes einzelne Unternehmen ist einzigartig. Ob Gesundheitswesen oder Einzelhandel, Produktion oder Finanzwesen keine zwei Unternehmen

Mehr

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired make connections share ideas be inspired Data Guido Oswald Solution Architect @SAS Switzerland BIG Data.. Wer? BIG Data.. Wer? Wikipedia sagt: Als Big Data werden besonders große Datenmengen bezeichnet,

Mehr

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data Herausforderungen und Chancen für Controller ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC BARC: Expertise für datengetriebene Organisationen Beratung Strategie

Mehr

Bessere Daten durch Stammdatenmanagement

Bessere Daten durch Stammdatenmanagement make connections share ideas be inspired Bessere Daten durch Stammdatenmanagement Mit SAS MDM, bessere Stammdaten für operativen Systeme make connections share ideas be inspired Overview Mit SAS MDM bessere

Mehr

Business Intelligence - Wie passt das zum Mainframe?

Business Intelligence - Wie passt das zum Mainframe? Business Intelligence - Wie passt das zum Mainframe? IBM IM Forum, 15.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Ressourcen bei BARC für Ihr Projekt Durchführung von internationalen Umfragen,

Mehr

Big Data in der Forschung

Big Data in der Forschung Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die

Mehr

BIG DATA - BIG OPPORTUNITIES

BIG DATA - BIG OPPORTUNITIES BIG DATA - BIG OPPORTUNITIES eday: 2014 Wien, 6. März 2014 EBA Executive Business Advice GmbH 1120 Wien, Am Euro Platz 2, Gebäude G Tel.: +43 1 71728 172 Email: office@eba-business.at www.eba-business.at

Mehr

CA Business Service Insight

CA Business Service Insight PRODUKTBLATT: CA Business Service Insight CA Business Service Insight agility made possible Mit CA Business Service Insight wissen Sie, welche Services in Ihrem Unternehmen verwendet werden. Sie können

Mehr

Komplexe Bedrohungen erkennen und untersuchen INFRASTRUKTUR

Komplexe Bedrohungen erkennen und untersuchen INFRASTRUKTUR Komplexe Bedrohungen erkennen und untersuchen INFRASTRUKTUR HIGHLIGHTS RSA Security Analytics-Infrastruktur Modulare Architektur für verteilte Erfassung Metadatenbasiert für effizientes Indexieren, Speichern

Mehr

Digitale Transformation: BI und Big Data treiben neue Geschäftsmodelle. CeBIT, 18.3.2015 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Digitale Transformation: BI und Big Data treiben neue Geschäftsmodelle. CeBIT, 18.3.2015 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Digitale Transformation: BI und Big Data treiben neue Geschäftsmodelle CeBIT, 18.3.2015 Dr. Carsten Bange, Gründer und Geschäftsführer BARC BARC: Expertise für datengetriebene Unternehmen Beratung Strategie

Mehr

AXA VERSICHERUNG. Durch die Optimierung der Geschäftsprozesse mithilfe von Respond EFM konnte AXA die Kundenzufriedenheit um 2 % erhöhen CASE STUDY

AXA VERSICHERUNG. Durch die Optimierung der Geschäftsprozesse mithilfe von Respond EFM konnte AXA die Kundenzufriedenheit um 2 % erhöhen CASE STUDY Durch die Optimierung der Geschäftsprozesse mithilfe von Respond EFM konnte AXA die Kundenzufriedenheit um 2 % erhöhen 2 AXA ist einer der führenden Anbieter für finanzielle Absicherung mit 51,5 Millionen

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

PRESSE-INFORMATION NEU: LÜNENDONK -TRENDPAPIER 2012 BIG DATA IM HANDEL CHANCEN UND HERAUSFORDERUNGEN

PRESSE-INFORMATION NEU: LÜNENDONK -TRENDPAPIER 2012 BIG DATA IM HANDEL CHANCEN UND HERAUSFORDERUNGEN PRESSE-INFORMATION BI-19-09-12 NEU: LÜNENDONK -TRENDPAPIER 2012 BIG DATA IM HANDEL CHANCEN UND HERAUSFORDERUNGEN Big Data für den Handel wettbewerbsentscheidend Neue Anforderungen und Handlungsbedarf Technologie-Innovationen

Mehr

Komplexität der Information - Ausgangslage

Komplexität der Information - Ausgangslage Intuition, verlässliche Information, intelligente Entscheidung ein Reisebericht Stephan Wietheger Sales InfoSphere/Information Management Komplexität der Information - Ausgangslage Liefern von verlässlicher

Mehr

CLOUD COMPUTING IN DEUTSCHLAND 2013

CLOUD COMPUTING IN DEUTSCHLAND 2013 Fallstudie: IBM IDC Multi-Client-Projekt CLOUD COMPUTING IN DEUTSCHLAND 2013 business-anforderungen und Geschäftsprozesse mit Hilfe von Cloud Services besser unterstützen ibm Fallstudie: highq Computerlösungen

Mehr

Data Warehousing mit Oracle

Data Warehousing mit Oracle Data Warehousing mit Oracle Business Intelligence in der Praxis von Claus Jordan, Dani Schnider, Joachim Wehner, Peter Welker 1. Auflage Hanser München 2011 Verlag C.H. Beck im Internet: www.beck.de ISBN

Mehr

SQL Server 2012 Datenblatt zur Lizenzierung

SQL Server 2012 Datenblatt zur Lizenzierung SQL Server 2012 Datenblatt zur Lizenzierung Veröffentlicht am 3. November 2011 Produktüberblick SQL Server 2012 ist ein bedeutendes Produkt- Release mit vielen Neuerungen: Zuverlässigkeit für geschäftskritische

Mehr

1 Einleitung. Betriebswirtschaftlich administrative Systeme

1 Einleitung. Betriebswirtschaftlich administrative Systeme 1 1 Einleitung Data Warehousing hat sich in den letzten Jahren zu einem der zentralen Themen der Informationstechnologie entwickelt. Es wird als strategisches Werkzeug zur Bereitstellung von Informationen

Mehr

Trends in Business Intelligence

Trends in Business Intelligence Trends in Business Intelligence Dr. Carsten Bange Business Intelligence (BI) beschreibt die Erfassung, Sammlung und Darstellung von Information zur Planung, Steuerung und Kontrolle der Unternehmensleistung.

Mehr

Möglichkeiten für bestehende Systeme

Möglichkeiten für bestehende Systeme Möglichkeiten für bestehende Systeme Marko Filler Bitterfeld, 27.08.2015 2015 GISA GmbH Leipziger Chaussee 191 a 06112 Halle (Saale) www.gisa.de Agenda Gegenüberstellung Data Warehouse Big Data Einsatz-

Mehr

Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten

Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten von Jürgen Mauerer Foto: Avantum Consult AG Seite 1 von 21 Inhalt Mehrwert aufzeigen nach Analyse des Geschäftsmodells...

Mehr

Grid Analytics. Informationsanforderungen und plattformen für Ihre Netze

Grid Analytics. Informationsanforderungen und plattformen für Ihre Netze Grid Analytics Informationsanforderungen und plattformen für Ihre Netze GAT / WAT IT Forum 2014 September 2014 Fichtner-Gruppe Gegründet 1922 und seither in Familienbesitz Deutschlands größtes unabhängiges

Mehr

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15 9.30 10.15 Kaffee & Registrierung 10.15 10.45 Begrüßung & aktuelle Entwicklungen bei QUNIS 10.45 11.15 11.15 11.45 Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics

Mehr

2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung

2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung 2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung Reporting, Analyse und Data Mining André Henkel, initions AG 22. und 23. Oktober 2013 in Hamburg

Mehr

Zusammenfassung der Umfrageergebnisse Customer Intelligence in Unternehmen 23.12.2010

Zusammenfassung der Umfrageergebnisse Customer Intelligence in Unternehmen 23.12.2010 Zusammenfassung der Umfrageergebnisse Customer Intelligence in Unternehmen 23.12.2010 Autoren: Alexander Schramm Marcus Mertens MuniConS GmbH Einleitung Unternehmen verfügen heute über viele wichtige Informationen

Mehr

SAP HANA Enterprise Cloud die Cloud für agile Echtzeit- Unternehmen

SAP HANA Enterprise Cloud die Cloud für agile Echtzeit- Unternehmen im Überblick SAP HANA Enterprise Cloud Herausforderungen SAP HANA Enterprise Cloud die Cloud für agile Echtzeit- Unternehmen In Echtzeit zum Echtzeit-Unternehmen In Echtzeit zum Echtzeit-Unternehmen Möchten

Mehr

Business Intelligence

Business Intelligence Business Intelligence TOP Priorität für CIOs? Köln 08. Mai 2007 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business Intelligence BI TOP Priorität

Mehr

CA Cross-Enterprise Application Performance Management r2.0

CA Cross-Enterprise Application Performance Management r2.0 PRODUKTBLATT CA Cross-Enterprise Application Performance Management r2.0 Ganz neue Einblicke in kritische Messdaten für die Datenbank- und Netzwerkperformance sowie die Möglichkeit einer 360-Grad- Ansicht

Mehr

OASIS on-call Contact Center aus der Cloud

OASIS on-call Contact Center aus der Cloud OASIS on-call Contact Center aus der Cloud OASIS on-call Contact Center Die perfekte ACD für Ihr Geschäft Medienübergreifend und leistungsstark Medienübergreifend, schnell im Einsatz und direkt aus der

Mehr

proalpha Geschäftssoftware für den Mittelstand

proalpha Geschäftssoftware für den Mittelstand Whitepaper proalpha Geschäftssoftware für den Mittelstand Januar 2013 proalpha Integrierte Geschäftssoftware für den Mittelstand 2 Herausgegeben von proalpha Software AG Auf dem Immel 8 67685 Weilerbach

Mehr

E-Interview mit Herrn Dr. Winokur, CTO von Axxana

E-Interview mit Herrn Dr. Winokur, CTO von Axxana E-Interview mit Herrn Dr. Winokur, CTO von Axxana Titel des E-Interviews: Kostengünstige Datenrettung ohne Verlust und über alle Distanzen hinweg wie mit Enterprise Data Recording (EDR) von Axxana eine

Mehr

IT-Monitoring braucht Sicherheit Sicherheit braucht Monitoring. Günther Klix op5 GmbH - Area Manager D/A/CH

IT-Monitoring braucht Sicherheit Sicherheit braucht Monitoring. Günther Klix op5 GmbH - Area Manager D/A/CH IT-Monitoring braucht Sicherheit Sicherheit braucht Monitoring Günther Klix op5 GmbH - Area Manager D/A/CH Technische Anforderungen an IT Immer komplexere & verteiltere Umgebungen zunehmend heterogene

Mehr

Konzeption eines Master-Data-Management-Systems. Sven Schilling

Konzeption eines Master-Data-Management-Systems. Sven Schilling Konzeption eines Master-Data-Management-Systems Sven Schilling Gliederung Teil I Vorstellung des Unternehmens Thema der Diplomarbeit Teil II Master Data Management Seite 2 Teil I Das Unternehmen Vorstellung

Mehr

Unsere Mitarbeiter schätzen bereits den einheitlichen Zugriff auf Kundeninformationen,

Unsere Mitarbeiter schätzen bereits den einheitlichen Zugriff auf Kundeninformationen, Anwenderbericht Kaut Bullinger Kaut Bullinger steigert die Effizienz von Vertrieb und Service durch die Vereinheitlichung von Kundendaten auf einer SugarCRM-Plattform Der SugarCRM-Partner KINAMU sorgt

Mehr

Portrait Uplift. Prognostizieren Sie die Änderungen im Verhalten Ihrer Kunden

Portrait Uplift. Prognostizieren Sie die Änderungen im Verhalten Ihrer Kunden Portrait Uplift Prognostizieren Sie die Änderungen im Verhalten Ihrer Kunden Nun können Sie vorhersagen, welche Kunden Sie mit ihren Angeboten überzeugen werden noch bevor sie angesprochen werden. Zusammenfassung

Mehr

Die Rolle des Stammdatenmanagements im digitalen Unternehmen

Die Rolle des Stammdatenmanagements im digitalen Unternehmen Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust Die Rolle des Stammdatenmanagements im digitalen Unternehmen Frankfurt, April 2015 Die Digitalisierung der Welt Nach der Globalisierung

Mehr

Your business technologists. Powering progress

Your business technologists. Powering progress Your business technologists. Powering progress Complexity to Simplicity Big Data ist mehr als das Sammeln von Informationen. Es geht darum, Erkenntnisse zu gewinnen. Ihr Unternehmen wird durch Entscheidungen

Mehr

Ihre PRAXIS Software AG. a t o s. - nalytisch. - aktisch. - perativ. - trategisch. Unser atos Konzept für Ihren Erfolg

Ihre PRAXIS Software AG. a t o s. - nalytisch. - aktisch. - perativ. - trategisch. Unser atos Konzept für Ihren Erfolg Ihre PRAXIS Software AG a t o s - nalytisch - aktisch - perativ - trategisch Unser atos Konzept für Ihren Erfolg Das atos Konzept macht geschäftskritische Daten und Abläufe transparent ermöglicht einfache

Mehr

Die folgenden Features gelten für alle isquare Spider Versionen:

Die folgenden Features gelten für alle isquare Spider Versionen: isquare Spider Die folgenden s gelten für alle isquare Spider Versionen: webbasiertes Management (Administratoren) Monitoring Sichten aller gefundenen Beiträge eines Forums Statusüberprüfung Informationen

Mehr

Business Intelligence- Anforderungen für die IT: Was jeder IT-Manager über die tatsächlichen BI-Anforderungen der Geschäftsanwender wissen sollte

Business Intelligence- Anforderungen für die IT: Was jeder IT-Manager über die tatsächlichen BI-Anforderungen der Geschäftsanwender wissen sollte Business Intelligence- Anforderungen für die IT: Was jeder IT-Manager über die tatsächlichen BI-Anforderungen der Januar 2011 p2 Geschäftsanwender und Unternehmen müssen in der Lage sein, ihre Daten schnell

Mehr

Oracle Datenbank: Chancen und Nutzen für den Mittelstand

Oracle Datenbank: Chancen und Nutzen für den Mittelstand Oracle Datenbank: Chancen und Nutzen für den Mittelstand DIE BELIEBTESTE DATENBANK DER WELT DESIGNT FÜR DIE CLOUD Das Datenmanagement war für schnell wachsende Unternehmen schon immer eine große Herausforderung.

Mehr

Oracle 10g revolutioniert Business Intelligence & Warehouse

Oracle 10g revolutioniert Business Intelligence & Warehouse 10g revolutioniert Business Intelligence & Warehouse Marcus Bender Strategisch Technische Unterstützung (STU) Hamburg 1-1 BI&W Market Trends DWH werden zu VLDW Weniger Systeme, mehr Daten DWH werden konsolidiert

Mehr

AUSFÜHRLICHE FALLSTUDIE. Das ist CRM für uns: Bet3000 bietet Transparenz und personalisierte Ansprache

AUSFÜHRLICHE FALLSTUDIE. Das ist CRM für uns: Bet3000 bietet Transparenz und personalisierte Ansprache AUSFÜHRLICHE FALLSTUDIE Das ist CRM für uns: Bet3000 bietet Transparenz und personalisierte Ansprache EINLEITUNG DENKEN SIE AN DIE ANZAHL DER TORSCHÜSSE IN JEDEM FUßBALLSPIEL AN EINEM BESTIMMTEN SPIELTAG

Mehr

SAP HANA eine Plattform für innovative Anwendungen

SAP HANA eine Plattform für innovative Anwendungen SAP HANA eine Plattform für innovative Anwendungen Top Intelligence: Big Data & SAP HANA Zürich, Frankfurt, Hamburg, München, Mülheim/R Februar 2014 Dr. Wolfgang Martin Analyst und Mitglied im Boulder

Mehr

Wie man mehr Speicherkapazität für weniger Geld bekommt

Wie man mehr Speicherkapazität für weniger Geld bekommt Mit Software-defined Storage die Speicherkosten reduzieren Wie man mehr Speicherkapazität für weniger Geld bekommt 13.01.15 Autor / Redakteur: Stefan Fischer, Business Consultant / Rainer Graefen Zadara

Mehr

Business Intelligence

Business Intelligence Business Intelligence Anwendung 1 MInf1 HAW Hamburg Betreuender Professor: Prof. Dr. Zukunft by Jason Hung Vuong [12] Gliederung 1. Hamburg Energie Kooperation 2. Motivation 3. Business Intelligence 4.

Mehr

DISCOVER BIG DATA & PREDICTIVE ANALYTICS DISCOVER INSIGHTS

DISCOVER BIG DATA & PREDICTIVE ANALYTICS DISCOVER INSIGHTS BIG DATA & PREDICTIVE ANALYTICS BIG DATA & PREDICTIVE ANALYTICS Turn communication into usable data. In einer zunehmend vernetzten, digitalen Service-Ökonomie müssen Sie die Wünsche Ihrer Kunden laufend

Mehr

Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick. Volker.Hinz@microsoft.com

Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick. Volker.Hinz@microsoft.com Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick Volker.Hinz@microsoft.com Was sagt der Markt? Fakten Meinung der Analysten zu Microsofts Angeboten Nutzen

Mehr

Präsentation für die. Donnerstag, 2. Mai 2013

Präsentation für die. Donnerstag, 2. Mai 2013 Präsentation für die 1 AGENDA VON DER PLANUNG BIS ZUR SELF SERVICE BI 9.30 Uhr: Begrüßung und Vorstellung B.i.TEAM & QlikTech 9.40 Uhr: Moderne Business Intelligence heute und morgen Modernes BI-Live,

Mehr

Analysen sind nur so gut wie die Datenbasis

Analysen sind nur so gut wie die Datenbasis Analysen sind nur so gut wie die Datenbasis Datenaufbereitung und Sicherung der Datenqualität durch den kontextbasierten MIOsoft Ansatz. Daten gelten längst als wichtiger Produktionsfaktor in allen Industriebereichen.

Mehr

Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie

Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie BIG DATA Future Opportunities and Challanges in the German Industry Zusammenfassung Die Menge der verfügbaren

Mehr

4. WORKSHOP - OSBI Big Data und Datenvirtualisierung. Dr. Sebastian Streit & Maxim Zehe

4. WORKSHOP - OSBI Big Data und Datenvirtualisierung. Dr. Sebastian Streit & Maxim Zehe 4. WORKSHOP - OSBI Big Data und Datenvirtualisierung Dr. Sebastian Streit & Maxim Zehe F. Hoffmann-La Roche AG Gegründet 1896 in Basel Über 80.000 Mitarbeitende Führende Position in Pharma Fokussierung

Mehr

Daten verstehen. Prozessoptimierung Applikationsmanagement Systemintegration. Daten- u. Prozessmodellierung Applikationsentwicklung Systemintegration

Daten verstehen. Prozessoptimierung Applikationsmanagement Systemintegration. Daten- u. Prozessmodellierung Applikationsentwicklung Systemintegration Actum + MIOsoft Ihr SAP Partner Prozessoptimierung Applikationsmanagement Systemintegration Daten verstehen Daten managen Business Analytics und IT Plattformanbieter Daten- u. Prozessmodellierung Applikationsentwicklung

Mehr

Was tun mit Big Data? Workshop-Angebote der PROFI AG

Was tun mit Big Data? Workshop-Angebote der PROFI AG Was tun mit Big Data? Workshop-Angebote der PROFI AG Jetzt anmelden! Die Teilnehmerzahl ist begrenzt. Was ist Big Data? 3 Herzlich willkommen. Die PROFI AG bietet Kunden ein breites Spektrum an Software-Lösungen,

Mehr

AKTIVIEREN Sie die versteckten Potenziale Ihrer IT-Infrastruktur!

AKTIVIEREN Sie die versteckten Potenziale Ihrer IT-Infrastruktur! AKTIVIEREN Sie die versteckten Potenziale Ihrer IT-Infrastruktur! 1 Die IT-Infrastrukturen der meisten Rechenzentren sind Budgetfresser Probleme Nur 30% der IT-Budgets stehen für Innovationen zur Verfügung.

Mehr

Umsetzung der Anforderungen - analytisch

Umsetzung der Anforderungen - analytisch Umsetzung der Anforderungen - analytisch Titel des Lernmoduls: Umsetzung der Anforderungen - analytisch Themengebiet: New Economy Gliederungspunkt im Curriculum: 4.2.5.5 Zum Inhalt: In diesem Modul wird

Mehr

Business Intelligence Mehr Wissen und Transparenz für smartes Unternehmens- Management NOW YOU KNOW [ONTOS TM WHITE PAPER SERIES]

Business Intelligence Mehr Wissen und Transparenz für smartes Unternehmens- Management NOW YOU KNOW [ONTOS TM WHITE PAPER SERIES] NOW YOU KNOW [ SERIES] Business Intelligence Mehr Wissen und Transparenz für smartes Unternehmens- Management [YVES BRENNWALD, ONTOS INTERNATIONAL AG] 001 Potential ontologiebasierter Wissens- Lösungen

Mehr

Die zentralen Erfolgsfaktoren für mehr Werberelevanz: Smart statt Big Data

Die zentralen Erfolgsfaktoren für mehr Werberelevanz: Smart statt Big Data Die zentralen Erfolgsfaktoren für mehr Werberelevanz: Smart statt Big Data dmexco Night Talk Wolfhart Fröhlich 24.06.2014, Hamburg intelliad Media GmbH Daten gibt es wie Sand am Meer Bild: Alexandr Ozerov

Mehr

Big Data & High-Performance Analytics: Anwendungsszenarien

Big Data & High-Performance Analytics: Anwendungsszenarien Big Data & High-Performance Analytics: Anwendungsszenarien Dr. Thomas Keil, Program Manager Business Analytics Frankfurt 26.4.2012 McKinsey-Studie zeigt Big Value Quelle: McKinsey Global Institute, May

Mehr

Der CIO der Zukunft Forschungsbericht

Der CIO der Zukunft Forschungsbericht Der CIO der Zukunft Forschungsbericht Der Weg zum Entwickler innovativer Geschäftsmodelle Bericht weitergeben Der CIO der Zukunft: Der Weg zum Entwickler innovativer Geschäftsmodelle 2 Wie eine vor Kurzem

Mehr

Big Data Challenges for the Hospitality Industry

Big Data Challenges for the Hospitality Industry M A N A G E M E N T - K N O W H O W Big Data bietet Hotels die Chance, sich einen enormen Wettbewerbsvorteil zu verschaffen. Doch wie können Hoteliers das Phänomen immer größer werdender Datenberge nutzen

Mehr

Storage-Trends am LRZ. Dr. Christoph Biardzki

Storage-Trends am LRZ. Dr. Christoph Biardzki Storage-Trends am LRZ Dr. Christoph Biardzki 1 Über das Leibniz-Rechenzentrum (LRZ) Seit 50 Jahren Rechenzentrum der Bayerischen Akademie der Wissenschaften IT-Dienstleister für Münchner Universitäten

Mehr

Big Business Dank Big Data?

Big Business Dank Big Data? Big Business Dank Big Data? Neue Wege des Datenhandlings und der Datenanalyse, Deutschland 2012 Portfoliodarstellung: Informatica GmbH IDC Multi-Client-Projekt Oktober 2012 Analyst: Matthias Zacher IDC

Mehr

Business Analytics verbessert die Wertschöpfungskette

Business Analytics verbessert die Wertschöpfungskette Pressemitteilung Hamburg, 05. September 2013 Business Analytics verbessert die Wertschöpfungskette accantec zeigt auf dem SAS Forum in Mannheim vom 11.- 12.09.2013, wie Unternehmen mit SAS Visual Analytics

Mehr

SENSO Analytics. Analyse und Controlling für Entscheider

SENSO Analytics. Analyse und Controlling für Entscheider SENSO Analytics Analyse und Controlling für Entscheider SENSO Analytics Analyse und Controlling für Entscheider Führungskräfte in sozialen Einrichtungen stehen heute oftmals vor der Herausforderung, eine

Mehr

NICE Performance Management. Albert Bossart, Sales Manager DACH, NICE Switzerland AG

NICE Performance Management. Albert Bossart, Sales Manager DACH, NICE Switzerland AG NICE Performance Management Albert Bossart, Sales Manager DACH, NICE Switzerland AG Performance Verbesserung für Mitarbeiter mit Kundenbeziehungen Aussendienst Tele- Sales Interner Verkauf Neuakuisition

Mehr

EMC. Data Lake Foundation

EMC. Data Lake Foundation EMC Data Lake Foundation 180 Wachstum unstrukturierter Daten 75% 78% 80% 71 EB 106 EB 133 EB Weltweit gelieferte Gesamtkapazität Unstrukturierte Daten Quelle März 2014, IDC Structured vs. Unstructured

Mehr

Lehrgebiet Informationssysteme

Lehrgebiet Informationssysteme Lehrgebiet AG Datenbanken und (Prof. Michel, Prof. Härder) AG Heterogene (Prof. Deßloch) http://wwwlgis.informatik.uni-kl.de/ Was sind? Computergestützte Programmsysteme, die Informationen erfassen, dauerhaft

Mehr

Software Defined Storage

Software Defined Storage Software Defined Storage - Wenn Speicher zum Service wird - Copyright 2015 DataCore Software Corp. All Rights Reserved. Copyright 2015 DataCore Software Corp. All Rights Reserved. Über uns... Über 25.000

Mehr

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Ein Data-Warehouse bzw. Datenlager ist eine zentrale Datensammlung (meist eine Datenbank), deren Inhalt sich aus Daten unterschiedlicher

Mehr

Auf direktem Weg zum Echtzeitunternehmen mit SAP Business Suite powered by SAP HANA

Auf direktem Weg zum Echtzeitunternehmen mit SAP Business Suite powered by SAP HANA im Überblick SAP Business Suite powered by SAP HANA Herausforderungen Auf direktem Weg zum Echtzeitunternehmen mit SAP Business Suite powered by SAP HANA Mehr erreichen durch Echtzeitdaten Mehr erreichen

Mehr

1Ralph Schock RM NEO REPORTING

1Ralph Schock RM NEO REPORTING 1Ralph Schock RM NEO REPORTING Bereit für den Erfolg Business Intelligence Lösungen Bessere Entscheidungen Wir wollen alle Mitarbeiter in die Lage versetzen, bessere Entscheidungen schneller zu treffen

Mehr

Wachstumsstrategie und Ausblick 2018. Karl-Heinz Streibich, CEO 29. Januar 2013

Wachstumsstrategie und Ausblick 2018. Karl-Heinz Streibich, CEO 29. Januar 2013 Wachstumsstrategie und Ausblick 2018 Karl-Heinz Streibich, CEO 29. Januar 2013 Q4 Ergebnisse & Gesamtjahr 2012 29. Januar 2013 2 Zukunftsgerichtete Aussagen Diese Präsentation enthält auf die Zukunft gerichtete

Mehr

LRS Enterprise Output Solutions

LRS Enterprise Output Solutions LRS Enterprise Output Solutions Das Klima wandelt sich. I N V I E L E R L E I H I N S I C H T Im globalen wie im unternehmensinternen Kontext sehen sich Organisationen durch Veränderungen auf der geschäftlichen,

Mehr