WHITEPAPER. Die vier zentralen Säulen einer Big-Data- Management-Lösung

Größe: px
Ab Seite anzeigen:

Download "WHITEPAPER. Die vier zentralen Säulen einer Big-Data- Management-Lösung"

Transkript

1 WHITEPAPER Die vier zentralen Säulen einer Big-Data- Management-Lösung

2 EXECUTIVE SUMMARY Big Data: ein großer Begriff... 4 NEUE BIG-DATA-ANWENDUNGSFÄLLE... 7 Empfehlungsdienste... 7 Analyse von Marketingkampagnen... 7 Kundenbindungs- und Kundenabwanderungs-Analyse... 8 Analyse sozialer Graphen... 8 Kapitalmarktanalyse... 8 Prädiktive Analyse... 9 Risikomanagement... 9 Rogue Trading... 9 Betrugserkennung... 9 Privatkundengeschäft Netzwerküberwachung Forschung und Entwicklung DIE HERAUSFORDERUNGEN VON BIG DATA Knappe Ressourcen Schlechte Datenqualität + Big Data = Große Probleme Projekt-Governance DIE VIER ZENTRALEN SÄULEN EINER BIG-DATA-MANAGEMENT-LÖSUNG Big-Data-Integration Big-Data-Verarbeitung Big-Data-Qualität Big-Data-Projektmanagement und -Governance TALEND UND BIG DATA: VERFÜGBAR FÜR IHRE ANFORDERUNGEN VON HEUTE Talend Open Studio for Big Data Talend Enterprise Big Data Talend Platform for Big Data RESÜMEE

3 ANHANG: TECHNOLOGIE-ÜBERBLICK Das MapReduce-Framework So funktioniert Hadoop Pig Hive HBase HCatalog Flume Oozie Mahout Sqoop NoSQL (Nicht nur SQL) ÜBER TALEND Kontaktieren Sie uns

4 Executive Summary Mit dem Einzug von Big Data stehen Unternehmen heute vor einem technologischen Paradigmenwechsel. Big Data sorgt für radikale und tiefgreifende Veränderungen im Berufsbild des Datenmanagers und stellt völlig neue Anforderungen im Hinblick auf Volumen, Schnelligkeit und Vielfalt von Unternehmensdaten. Um die Versorgung mit wertvollen und aussagekräftigen Informationen sicherzustellen, müssen moderne Unternehmen ihre Datentechnologien und -strategien überdenken und anpassen. Big Data liefert neue Erkenntnisse zu Geschäftschancen (und -risiken) und kann moderne Unternehmen, wie wir sie heute kennen, zumindest in Teilen grundlegend verändern. Folgendes können wir über Big Data festhalten: Big Data bedient reale Marktbedürfnisse auf der Grundlage neuer Technologien. Während manche Unternehmen noch mögliche Einsatzgebiete sondieren, profitieren andere bereits von nutzbringenden Big-Data-Anwendungen. Zwar ist die Datenintegration äußerst wichtig für das Big-Data-Management, doch künftig werden auch Projekt-Governance und Datenqualität eine Schlüsselrolle bei Big-Data-Projekten spielen. Die Experimentierphase ist vorbei. Big-Data-Projekte werden schon bald einen strategischen Stellenwert im Unternehmen einnehmen. Es werden Entwicklertools benötigt, um den Einzug dieser neuen Technologien voranzutreiben und die jetzige Abhängigkeit von hochqualifizierten Entwicklern zu verringern. Alle großen Infrastruktur- und Datenbankanbieter bringen momentan Big- Data-Lösungen auf den Markt. 1. Big Data: ein großer Begriff Der Begriff Big Data ist schwer zu greifen. Was für eine Organisation als große Datenmenge gilt, muss für eine andere noch lange nicht groß sein. Big Data lässt sich nicht über bestimmte Technologien definieren. Vielmehr umfasst Big Data eine Reihe von Verfahren und Technologien. Bei Big Data handelt es sich um einen neuen, extrem dynamischen Bereich, in dem wir gerade erst lernen, das volle Potenzial auszuschöpfen. Daher verändert sich seine Definition. Dennoch glauben viele, dass Big Data neue Branchen und Märkte hervorbringen und bestehende verändern wird. Denn Big-Data-Technologien machen völlig neue Produkte und Funktionen möglich, von denen wir bisher nur zu träumen wagten bzw. an die wir noch nicht einmal gedacht haben. 4

5 1.1 Big Data Wie der Name schon sagt, ist Big Data durch die Größe bzw. durch das Volumen der Informationen gekennzeichnet. Doch neben der Größe sind auch Schnelligkeit und Vielfalt von Bedeutung. Werfen wir zunächst einen Blick auf die Vielfalt. Der Begriff Big Data bezieht sich oft auf unstrukturierte und halbstrukturierte Inhalte, die in klassischen relationalen Speicher- und IT-Umgebungen Probleme verursachen können. Unstrukturierte und halbstrukturierte Daten findet man so gut wie überall. Zum Beispiel in Form von Webinhalten, Twitter-Beiträgen und Kundenkommentaren. Eine wichtige Rolle spielt auch die Schnelligkeit, d.h. die Geschwindigkeit, in der Daten erstellt werden. Mit den neuen Technologien können wir jetzt riesige Datenmengen analysieren und nutzen, die aus Website-Protokolldateien, Social-Media-Sentimentanalysen, Umgebungssensoren oder Video-Streams stammen. Wir erhalten Einblicke, die früher nicht möglich waren. Um die komplexen Herausforderungen besser zu verstehen, die Volumen, Schnelligkeit und Vielfalt mit sich bringen, hier einige Beispiele: Walmart wickelt stündlich über 1 Million Kundentransaktionen ab. Diese werden in Datenbanken importiert, die schätzungsweise mehr als 2,5 Petabytes an Daten enthalten. Das entspricht dem 167-Fachen der Information, die in sämtlichen Büchern der Bibliothek des US-amerikanischen Kongresses enthalten ist. In Facebook gibt es 40 Milliarden Nutzer-Fotos. Die Entschlüsselung des menschlichen Genoms dauerte ursprünglich 10 Jahre. Jetzt reicht eine Woche dafür aus. Die Hadoop-Distribution Hortonworks managt über Yahoo!-Rechner, die täglich Millionen von Anfragen verarbeiten. Diese Firmen sind bei weitem nicht die einzigen, die in Big-Data-Dimensionen denken. Immer mehr Unternehmen erkennen, dass diese riesigen Datenspeicher voller wertvoller, geschäftsrelevanter Informationen stecken. 1.2 Big Technologien Möchte man die Implikationen dieses neuen IT-Paradigmas verstehen, braucht man ein grundlegendes Verständnis für die Technologien und die zentralen Konzepte, die sich hinter Big Data verbergen. Big Data wird durch völlig neue Konzepte, Begriffe und Technologien definiert. Grundlage für seine revolutionäre Entwicklung ist ein Konzept namens MapReduce. MapReduce stellt eine massive parallele Umgebung bereit, in der schwierige, rechenintensive Operationen innerhalb kürzester Zeit ausgeführt werden können. 5

6 2004 von Google eingeführt, ermöglicht MapReduce dem Programmierer, Daten so zu transformieren, dass sich diese auf einem Cluster mit mehreren Tausend parallel arbeitenden Rechnern verarbeiten lassen. Wesentlicher Kern ist die Verwendung einer Reihe von Maps, mit denen sich eine Aufgabe auf mehrere parallele Server verteilen lässt. Anschließend werden die Ergebnisse von jeder Map-Instanz mithilfe einer Reduce -Funktion konsolidiert, um eine Lösung für das ursprüngliche Problem zu finden. Viele Big-Data-Technologien sind quelloffen verfügbar, darunter Hadoop, Pig und Hive. Open Source bietet zahlreiche Vorteile wie z.b. standardbasierte Interoperabilität, Community- Entwicklung, Kostenvorteile gegenüber proprietärer Software und kontinuierliche Innovation. Eine detailliertere Beschreibung zur Funktionsweise der MapReduce-Technologie, sowie ein Glossar zu den Big-Data-Technologien finden Sie im Anhang dieses Whitepapers. 1.3 Big Paradigmenwechsel Big-Data-Technologien haben schon jetzt unser Leben grundlegend verändert. Facebook, Groupon, Twitter, Zynga und zahlreiche andere neue Geschäftsmodelle haben ihre Existenz diesen neuen Technologien zu verdanken. Wir erleben gerade einen technologischen Paradigmenwechsel, der noch größere Auswirkungen haben könnte als die Kommerzialisierung des Internets Ende der neunziger Jahre. Ganze Branchen und Märkte werden betroffen sein, wenn wir die neuen Technologien nach und nach dazu nutzen, die Funktionen und die Bereitstellung der heute verfügbaren Produkte und Services zu verbessern, und sogar völlig neue Möglichkeiten schaffen, von denen wir früher nur träumen konnten. Nehmen wir als Beispiel die einheitliche Sicht auf den Kunden, die von Stammdatenmanagement-Produkten bereitgestellt wird. Die Lösungen, die heute auf dem Markt sind, verwenden einen eher statischen relationalen Speicher zum Persistieren der Daten und müssen einen Algorithmus im Batch-Modus ausführen, um eine ganzheitliche Sicht zu erhalten. Der Nachteil dieser Lösungen ist ihre begrenzte Performance und Speicherkapazität bei der Verwendung eines eindeutigen Datensatzes. Hadoop setzt diesen Beschränkungen ein Ende. Es ermöglicht, eine einheitliche Sicht auf den Kunden on the fly zu erstellen, die mehr Informationen enthalten kann (z.b. Transaktionsdaten). Wie würden wir die auf Social-Media-Sites eingefangene Kundenstimmung nutzen, um die Sicht auf den Kunden zu vervollständigen? Diese Art von Neuerungen könnte manch bestehenden Markt durcheinanderwirbeln. Denken wir an ERP und Data-Warehousing, wo Big Data eine wichtige Rolle für Data-Warehouseund Analyseprodukte der nächsten Generation spielt. Wie wäre es, wenn wir mit Big-Data- 6

7 Technologien eine operative Datenbank ersetzen würden? Das mag radikal klingen, aber der Gedanke ist alles andere als abwegig. Denn mit Big-Data-Open-Source-Tools lassen sich einige dieser Funktionen erweitern und teilweise sogar ersetzen. Zudem liefern sie neue Ansätze für ein modernes und effektives Datenmanagement. Wir befinden uns inmitten eines massiven Technologiewandels, der gravierende gesellschaftliche Veränderungen mit sich bringen wird. Big Data verändert alles. Neue Big-Data-Anwendungsfälle 1 Big Data ist ein relativ neues, dynamisches Feld, doch es gibt einige Einsatzgebiete, von denen Unternehmen bereits heute profitieren. Hier einige Beispiele: Empfehlungsdienste Seit Jahren arbeiten Unternehmen wie Amazon, Facebook und Google mit Empfehlungsdiensten, um Produkte, Dienstleister und Anzeigen vorzuschlagen und diese auf der Grundlage von Verhaltensdaten- und Nutzerprofilanalysen auf die Anwender abzustimmen. Die effektive Analyse derart großer Datenmengen war eines der ersten Probleme, die mithilfe von Big Data gelöst werden konnten. Dies hat die Entwicklung der Technologie, wie wir sie heute kennen, maßgeblich geprägt. Analyse von Marketingkampagnen Je mehr Informationen im Marketing zur Verfügung stehen, desto genauer lassen sich Zielgruppen definieren und ansprechen. Mit Big Data können riesige Datenmengen analysiert werden eine Aufgabe, die mit klassischen relationalen Lösungen nicht zu bewältigen ist. Marketingexperten können jetzt Zielgruppen besser definieren und Produkte und Services gezielter auf den Kunden abstimmen. Mithilfe von Big Data können Marketingteams große Datenmengen aus neuen Datenquellen (z.b. Clickstream- und Verbindungsdaten) evaluieren, um neue Erkenntnisse zum Einkaufsverhalten der Kunden zu gewinnen. 1 Big Data Use Cases. Amir Halfon.http://www.finextra.com/community/fullblog.aspx?blogid=6276 7

8 Kundenbindungs- und Kundenabwanderungs-Analyse Je mehr Produkte ein Kunde kauft, desto geringer ist die Wahrscheinlichkeit, dass er abwandert. Aus diesem Grund betreiben viele Organisationen einen großen Aufwand, um ihre Cross-Selling- und Up-Selling-Aktivitäten zu verbessern. Heterogene Datenformate und Governance-Probleme machen es allerdings oft schwierig, Kunden und Produkte über verschiedene Geschäftssparten hinweg zu analysieren. Manche Unternehmen sind in der Lage, ihre Daten in ein Hadoop-Cluster zu laden, um eine breit angelegte Analyse durchzuführen und Muster zu identifizieren. Dadurch erfahren sie, welche Kunden am ehesten zu einem anderen Anbieter wechseln werden oder noch besser welche Kunden am ehesten dazu bereit sind, ihre Beziehung zum Unternehmen zu vertiefen. Daraufhin können Unternehmen aktiv werden, um solche Kunden zu halten oder um ihnen Anreize zu geben. Analyse sozialer Graphen In allen sozialen Netzwerken oder Communitys gibt es User und Superuser. Häufig ist es schwierig, solche Meinungsmacher innerhalb dieser Gruppen ausfindig zu machen. Mit Big Data lassen sich Daten aus sozialen Netzwerken analysieren, um die Nutzer auszumachen, die den größten Einfluss auf andere Nutzer innerhalb dieser sozialen Netzwerke ausüben. Auf diese Weise können Unternehmen die wichtigsten Kunden bestimmen. Dies können müssen aber nicht zwangsläufig die Kunden sein, die sich auf herkömmliche Art und Weise mittels Geschäftsanalysen ermitteln lassen (die Kunden mit den meisten Produkten oder den größten Ausgaben). Kapitalmarktanalyse Ob wir uns für allgemeine wirtschaftliche Indikatoren, spezielle Marktindikatoren oder für die Stimmung gegenüber bestimmten Unternehmen oder Aktien interessieren die Datenmengen, die analysiert werden können, sind riesig, egal ob aus klassischen oder neuen Quellen. Zwar werden elementare Schlagwortanalysen und Entity-Extraction-Methoden schon seit Jahren verwendet, doch die Kombination alter und neuer Datenquellen wie Twitter und andere Social-Media-Plattformen liefern ein viel genaueres Bild über das, was die Menschen denken und das nahezu in Echtzeit. Die meisten Finanzinstitute nutzen heute Sentimentanalysen, um die öffentliche Meinung über ihr Unternehmen, den Markt oder über die Wirtschaft allgemein einzuschätzen. 8

9 Prädiktive Analyse Auf den Kapitalmärkten arbeiten Analysten mit erweiterten Korrelationsalgorithmen und Wahrscheinlichkeitsrechnungen auf Basis aktueller und historischer Daten, um Marktveränderungen vorherzusagen. Aufgrund der großen Mengen historischer Marktdaten und der hohen Geschwindigkeit, in der neue Daten evaluiert werden müssen (z.b. komplexe Derivatbewertungen) ist dies ein Fall für Big Data. Da Big-Data-Technologien solche Berechnungen schneller und auf handelsüblicher Hardware ausführen können, sind sie ein zuverlässiger Ersatz für den relativ langsamen und teuren alten Ansatz geworden. Risikomanagement Moderne Organisationen mit aggressiven Geschäftsmodellen möchten ihr Risiko mittels kontinuierlichem Risikomanagement und einer genaueren Analyse von Risikofaktoren auf Basis größerer Datensätze begrenzen. Zudem steigt der Druck, Daten trotz wachsenden Volumens schneller zu analysieren. Da Big-Data-Technologien den Datenzugriff und die Datenverarbeitung parallel abwickeln können, werden sie immer häufiger eingesetzt, um Probleme wie diese zu lösen. Ob im Rahmen einer übergreifenden Analyse oder der Integration von Risiko- und Finanzmanagement für die Ermittlung risikoangepasster Renditen bzw. Gewinne und Verluste muss eine wachsende Menge an Daten aus mehreren eigenständigen Abteilungen innerhalb des Unternehmens integriert, abgerufen und on the fly analysiert werden. Rogue Trading Deep-Analytics-Verfahren, die Abrechnungsdaten mit Positionsverfolgungs- und Auftragsmanagementsystemen korrelieren, können wertvolle Einblicke liefern, die mit herkömmlichen Datenmanagement-Tools nicht möglich waren. Um hier Probleme zu identifizieren, müssen riesige Mengen an Daten in nahezu Echtzeit aus mehreren heterogenen Quellen verarbeitet werden. Diese rechenintensive Aufgabe kann jetzt mit Big- Data-Technologien bewältigt werden. Betrugserkennung Die Korrelation von Daten aus mehreren, unzusammenhängenden Quellen vereinfacht die Erkennung betrügerischer Aktivitäten. Ein Beispiel ist die Korrelation von Kredit-/Debitkarten-, Smartphone-, Geldautomat- und Online-Banking-Aktivitäten mit einer Analyse des Online- 9

10 Verhaltens (entweder auf der Website der Bank oder auf externen Seiten). Hier hilft Big Data, betrügerische Aktivitäten aufzuspüren. Privatkundengeschäft Im Privatkundengeschäft von Banken hat die präzise Einschätzung des Risikoprofils eines Kunden oder eines Darlehens entscheidenden Einfluss darauf, ob dem Kunden eine bestimmte Dienstleistung angeboten (oder verweigert) wird. Eine richtige Bewertung schützt die Bank und sorgt für zufriedene Kunden. Mit dem wachsenden Zugriff auf immer vollständigere Kundendaten können Banken ihr Serviceangebot genauer und zuverlässiger auf den Kunden ausrichten. Darüber hinaus sind wichtige Ereignisse im Leben der Kunden, wie beispielsweise eine Hochzeit, eine Geburt oder der Kauf eines Eigenheims, besser vorhersehbar und erleichtern Cross-Selling- oder Up-Selling-Aktivitäten. Netzwerküberwachung Big-Data-Technologien werden eingesetzt, um Netzwerke jeglicher Art zu analysieren. Von besseren Analysen können beispielsweise Verkehrsnetze, Kommunikationsnetze, Polizeinetze und selbst lokale Firmennetze profitieren. Nehmen wir ein LAN als Beispiel. Mithilfe von Big-Data-Technologien können Administratoren die riesigen Datenmengen aus Servern, Netzwerkgeräten und anderer IT-Hardware nutzen, um Netzwerkaktivitäten zu überwachen und Engpässe sowie andere Probleme zu erkennen, bevor sie sich negativ auf die Produktivität auswirken. Forschung und Entwicklung Unternehmen mit einer großen Forschungs- und Entwicklungsabteilung, wie z.b. Arzneimittelhersteller, nutzen Big-Data-Technologien, um die enormen Mengen textbasierter Forschungsdaten und anderweitiger historischer Daten zu durchsuchen. Die gewonnen Informationen werden dann bei der Entwicklung neuer Produkte herangezogen. 10

11 Die Herausforderungen von Big Data Big Data bietet große Chancen, bringt aber auch erhebliche Herausforderungen mit sich. Es umfasst eine Reihe relativ neuer Technologien, die recht komplex zu erlernen sind. Dabei gibt es weder Tools, um die Verbreitung und Entwicklung voranzutreiben, noch ausreichend qualifizierte Fachkräfte. Tatsächlich sind die meisten Big-Data-Projekte genau das: ein Projekt. Sie sind noch nicht in die Governance-Strukturen für Projektmanagement und Data- Governance eingebunden, wie man es bei größeren Unternehmen erwarten würde. Doch das wird sich mit Sicherheit ändern. Lassen Sie uns nun einen Blick auf diese Herausforderungen werfen. Knappe Ressourcen Die meisten Entwickler und IT-Architekten, die wirklich etwas von Big Data verstehen, arbeiten für die einstigen Wegbereiter der Big-Data-Technologien, also Unternehmen wie Facebook, Google, Yahoo und Twitter, um nur einige zu nennen. Andere sind bei den zahlreichen Start-up-Unternehmen wie Hortonworks, Cloudera und MapR beschäftigt. Die Materie ist immer noch recht komplex. Deswegen kommen neue Big-Data-Experten nur langsam nach. Erschwerend kommt hinzu, dass es auf diesem jungen Markt nur wenige Tools gibt, die bei der Entwicklung und Implementierung dieser Projekte helfen. Schlechte Datenqualität + Big Data = Große Probleme Je nachdem, welches Ziel mit einem Big-Data-Projekt verfolgt wird, kann eine schlechte Datenqualität das Ergebnis massiv beeinflussen. Inkonsistente oder falsche Daten könnten sich geradezu exponentiell auf Big-Data-Analysen auswirken. Da immer mehr Analysen auf Basis von Big Data durchgeführt werden, wächst auch der Bedarf an Lösungen für die Validierung, Standardisierung, Anreicherung und Harmonisierung von Daten. Selbst die Identifizierung von Verknüpfungen kann als Datenqualitätsproblem gesehen werden, das für Big-Data-Projekte gelöst werden muss. Projekt-Governance Wenn es um Big Data geht, bekommen die Verantwortlichen meist nur die vage Anweisung vom CTO, das Projekt irgendwie zu schaukeln. Big Data hat seine große Zeit noch vor sich. Die meisten Organisationen versuchen noch herauszufinden, welche Potenziale Big Data bietet, und starten ein Forschungsprojekt oder gründen eine Art SWAT-Team. Normalerweise werden Projekte wie diese nicht gemanagt. Es geht fast wie im wilden Westen zu. Genauso wie dies in anderen Bereichen des Datenmanagements der Fall ist, werden auch diese Projekte letztendlich bestehende Unternehmensstandards und anerkannte 11

12 Projektmanagement-Normen für die Organisation, Bereitstellung und gemeinsame Nutzung von Projektartefakten erfüllen müssen. Zwar gibt es noch einige Herausforderungen, doch die Technologie ist stabil. Es ist reichlich Wachstums- und Innovationspotenzial vorhanden, denn der komplette Datenmanagement- Lebenszyklus einschließlich Qualität und Governance kann in dieses neue IT-Paradigma übertragen werden. Das Interesse für Big-Data-Technologien ist riesig. Bald wird genügend qualifiziertes Personal zur Verfügung stehen, um die Verbreitung von Big Data zu unterstützen. 12

13 Die vier zentralen Säulen einer Big-Data- Management-Lösung Integration ist der Motor, Codegenerierung der Treibstoff. Um die genannten Herausforderungen zu bewältigen, kommt es beim Aufbau einer Big-Data- Management-Lösung im Wesentlichen auf vier Säulen an: Big-Data-Integration, Big-Data- Bearbeitung, Big-Data-Qualität und Big-Data-Projektmanagement und -Governance. Talend, ein führender Anbieter von Open-Source-Integrationslösungen, bietet all das in einer intuitiven Datenmanagement-Umgebung, mit der sich Entwicklung, Implementierung und Governance von Big Data vereinfachen lassen. 1. Big-Data-Integration Das Laden großer Datenmengen (zahlreiche Logdateien, Daten von operativen Systemen, Social-Media-Plattformen, Sensoren oder aus anderen Quellen) in Hadoop über HDFS, HBase, Sqoop oder Hive wird als operatives Datenintegrationsproblem betrachtet. Talend bietet eine unmittelbare Lösung, mit der sich herkömmliche Ressourcen wie Datenbanken, Anwendungen und Dateiserver direkt mit Big-Data-Technologien verknüpfen lassen. Talend stellt eine Reihe intuitiver grafischer Komponenten und einen Arbeitsbereich bereit, der die Interaktion mit einer Big-Data-Quelle oder einem Big-Data-Ziel ermöglicht, ohne dass dafür komplizierter Code erlernt oder geschrieben werden muss. Die Konfiguration der jeweiligen Big-Data-Verbindung wird grafisch dargestellt und der zugrunde liegende Code automatisch erzeugt. Dieser lässt sich anschließend als Dienst, ausführbare Datei oder eigenständiger Job ausführen. Dabei kommen sämtliche Talend-Komponenten für die Datenintegration (Anwendung, Datenbank, Service und sogar ein Stammdaten-Hub) zum Einsatz, sodass der Datenaustausch von beliebigen Quellen bzw. mit beinahe jedem Ziel koordiniert werden kann. Zudem bietet Talend grafische Komponenten, die eine einfache Konfiguration von NoSQL-Technologien wie MongoDB, Cassandra, Hive und HBase erlauben, um einen direkten, spaltenorientierten Echtzeit-Lese-/Schreibzugriff auf Big Data zu ermöglichen. 13

14 2. Big-Data-Verarbeitung Es gibt eine Reihe von Tools, die es dem Entwickler erlauben, eine Big-Data-Parallelisierung durchzuführen, um Transformationen riesiger Datenmengen vorzunehmen. Programmiersprachen wie Apache Pig bieten eine Skriptsprache zum Vergleichen, Filtern, Auswerten und Gruppieren von Daten innerhalb eines HDFS-Clusters. Talend abstrahiert diese Funktionen in einen Komponentensatz, sodass diese Skripts in einer grafischen Umgebung und als Teil eines Datenflusses definiert werden können. Auf diese Weise können sie schnell entwickelt werden, ohne dass spezielle Kenntnisse der zugrunde liegenden Sprache erforderlich sind. 3. Big-Data-Qualität Talend bietet Datenqualitätsfunktionen, die auf die massiv-parallele Umgebung von Hadoop zurückgreifen. Diese Datenqualitätsfunktionen stellen explizite Features und Tasks bereit, mit denen Sie Duplikate innerhalb riesiger Datenspeicher mittels Profiling binnen weniger Augenblicke statt mehrerer Tage analysieren und identifizieren können. Dabei handelt es sich um eine natürliche Erweiterung von Enterprise-Datenqualitäts- und Datenintegrationslösungen und Best Practices. 4. Big-Data-Projektmanagement und -Governance Die meisten frühen Big-Data-Projekte wurden ohne explizite Projektmanagement-Strukturen abgewickelt. Doch das wird sich mit Sicherheit ändern, sobald sie Teil eines größeren Systems sind. Unternehmen werden dann Standards und Verfahren um diese Projekte herum definieren müssen, so wie es in der Vergangenheit mit Datenmanagementprojekten der Fall war. Talend bietet eine umfassende Palette an Funktionen für das Big-Data- Projektmanagement. Mit Talend können die Anwender beliebige Big-Data-Jobs planen, überwachen und bereitstellen und ein gemeinsames Repository nutzen, das die Zusammenarbeit der Entwickler sowie die Freigabe von Projekt-Metadaten und Artefakten ermöglicht. Darüber hinaus vereinfacht Talend Konstrukte wie HCatalog und Oozie. 14

15 Talend und Big Data: verfügbar für Ihre Anforderungen von heute Mit dem Open-Source-Ansatz und der flexiblen Integrationsplattform für Big Data von Talend können Benutzer problemlos Daten aus verschiedenen Systemen verbinden und analysieren, um den geschäftlichen Erfolg ihres Unternehmens zu steigern. Talends Big-Data-Funktionen lassen sich mit den Lösungen führender Big-Data-Anbieter wie etwa Cloudera, Hortonworks, Google, EMC/Greenplum, MapR, Netezza, Teradata und Vertica integrieren. Diese Vielseitigkeit macht Talend zu einem der führenden Anbieter im Bereich des Big-Data- Management. Unser Ziel ist es, den Big-Data-Markt zu demokratisieren, genau wie wir dies schon bei der Datenintegration, Datenqualität, Stammdatenverwaltung, Anwendungsintegration und beim Business Process Management getan haben. Talend bietet drei Big-Data-Produkte: 1. Talend Open Studio for Big Data 2. Talend Enterprise Big Data 3. Talend Platform for Big Data Talend Open Studio for Big Data Talend Open Studio for Big Data ist ein Open-Source-Entwicklungstool, das unsere Big-Data- Komponenten für Hadoop, Hbase, Hive, HCatalog, Oozie, Sqoop und Pig umfasst und auf unserer Datenintegrationslösung Talend Open Studio basiert. Das Tool wurde unter Apache- Lizenz in der Community veröffentlicht. Es erlaubt dem Nutzer, alte und neue Systeme miteinander zu verbinden, da Hunderte Komponenten für bestehende Systeme wie SAP, Oracle, DB2, Teradata und viele andere enthalten sind. Download unter: 15

16 Talend Enterprise Big Data Talend Enterprise Big Data erweitert Talend Open Studio for Big Data um professionellen technischen Support sowie um Funktionen der Enterprise-Klasse. Organisationen, die auf diese Version aufrüsten, profitieren von erweiterten Kollaborations-, Überwachungs- und Projektmanagementfunktionen. Talend Platform for Big Data Talend Platform for Big Data löst die Herausforderungen von Big-Data-Integration, Datenqualität und Big-Data-Governance. Sie vereinfacht das Laden, Extrahieren und Verarbeiten großer und vielfältiger Datenbestände und ermöglicht dadurch schnellere und fundiertere Entscheidungen. Datenqualitätskomponenten ermöglichen das Profiling, die Bereinigung und den Abgleich von Big Data durch die Verwendung einer massiv-parallelen Umgebung wie Hadoop. Erweiterte Cluster-Funktionen erlauben die Integration von Datenmengen jeder Größenordnung. Talend Platform for Big Data on Top zur Talend Unified Platform verbessert die Produktivität im Bereich Datenmanagement durch die Nutzung eines gemeinsamen Code-Repositorys und einer Reihe von Tools für die Planung, das Metadatenmanagement, die Datenverarbeitung und das Enablement von Services. Weitere Informationen zu den Funktionen der einzelnen Produktversionen finden Sie unter Resümee Mit dem Einzug von Big Data stehen Unternehmen heute vor einem technologischen Paradigmenwechsel. Die effiziente Nutzung dieser massiven Datenmengen liefert neue Erkenntnisse zu Geschäftschancen (und -risiken). Big Data bietet große Chancen, bringt aber auch erhebliche Herausforderungen mit sich. Es umfasst eine Reihe relativ neuer Technologien, die recht komplex zu erlernen sind. Dabei gibt es weder Tools, um die Verbreitung und Entwicklung voranzutreiben, noch ausreichend qualifizierte Fachkräfte. Mit dem Open-Source-Ansatz und der flexiblen Integrationsplattform für Big Data unterstützt Talend die Benutzer dabei, Daten problemlos aus verschiedenen Systemen zu verbinden und zu analysieren, um den geschäftlichen Erfolg ihres Unternehmens zu steigern 16

17 Anhang: Technologie-Überblick Das MapReduce-Framework MapReduce bildet die Grundlage für Big-Data-Technologien wie Hadoop. Das Hadoop Distributed File System (HDFS) beispielsweise verwendet diese Komponenten, um Daten zu persistieren, Funktionen auszuführen und Ergebnisse zu ermitteln. NoSQL-Datenbanken wie MongoDB und Cassandra setzen die Funktionen ein, um Daten zu speichern und für die entsprechenden Services abzurufen. Hive nutzt das Framework als Basis für ein Data- Warehouse. So funktioniert Hadoop Hadoop wurde entwickelt, weil die bestehenden Ansätze nicht für die Verarbeitung großer Datenmengen geeignet waren. Konkret sollte Hadoop dazu dienen, täglich das gesamte World Wide Web zu indexieren entwickelte Google das Paradigma MapReduce. Yahoo! startete Hadoop 2005 als Implementierung von MapReduce und veröffentlichte es 2007 als Open-Source-Projekt. Prinzipiell verfügt Hadoop wie jedes andere Betriebssystem auch über die grundlegenden Konstrukte, die erforderlich sind, um Rechenaufgaben auszuführen. Es hat ein Dateisystem, eine Sprache zum Schreiben von Programmcode, einen Mechanismus, um die Verteilung dieses Programmcodes über ein verteiltes Cluster zu verwalten, und eine Methode, um die Ergebnisse dieses Programmcodes zusammenzutragen. Letzten Endes besteht das Ziel darin, einen einzigen Ergebnissatz zu erhalten. Mit Hadoop werden große Datenmengen in mehrere Teile zerlegt und auf eine Reihe von Nodes verteilt, die auf handelsüblicher Hardware laufen. Zum Schutz vor Node-Ausfällen werden die Informationen in dieser Struktur mehrfach auf verschiedene Nodes repliziert. Die Daten sind nicht in relationalen Zeilen und Spalten organisiert, wie man es in der klassischen Persistenz erwarten würde. Auf diese Weise lassen sich strukturierte, halbstrukturierte und unstrukturierte Inhalte speichern. Das HDFS arbeitet mit vier verschiedenen Arten von Nodes: Der Name Node liefert Informationen zum Standort der Daten. Er weiß, welche Nodes verfügbar sind, wo genau im Cluster sich bestimmte Daten befinden und welche Nodes ausgefallen sind. Der Secondary Node fungiert als Backup für den Name Node. 17

18 Der JobTracker koordiniert die Datenverarbeitung mittels MapReduce. Die Slave Nodes speichern Daten und befolgen die Anweisungen des JobTracker. Ein JobTracker bildet den Einsprungspunkt für einen Map-Job oder einen Prozess, der auf die Daten angewendet werden soll. Ein Map-Job ist in der Regel eine in Java geschriebene Abfrage und bildet den ersten Schritt im MapReduce-Prozess. Der JobTracker fordert den Name Node auf, die erforderlichen Daten für die Ausführung des Jobs zu identifizieren und zu lokalisieren. Sobald er über diese Informationen verfügt, sendet er die Abfrage an die entsprechenden Nodes. Die nötige Datenverarbeitung erfolgt innerhalb der dafür vorgesehenen Nodes. Diese massiv-parallele Vorgehensweise ist charakteristisch für MapReduce. Sobald die Nodes mit der Verarbeitung fertig sind, speichern sie die Ergebnisse. Der Client initiiert anschließend einen Reduce-Job. In einem nächsten Schritt werden die Ergebnisse zusammengeführt, um die Antwort für die ursprüngliche Abfrage festzulegen. Der Client kann schließlich auf diese Ergebnisse auf dem Dateisystem zugreifen und für seine Zwecke verwenden. Pig Beim Apache Pig-Projekt handelt es sich um eine höhere Datenfluss-Programmiersprache und ein Execution-Framework für die Erstellung von MapReduce-Programmcode, der mit Hadoop verwendet wird. Die abstrakte Sprache für diese Plattform heißt Pig Latin. Sie abstrahiert den Programmiercode in eine Notation, sodass der MapReduce-Programmiercode dem Code von SQL-Systemen für relationale Datenbankmanagementsysteme (RDBMS) ähnelt. Pig Latin lässt sich mittels UDF (User Defined Functions) erweitern, die der Nutzer in Java schreiben und direkt von der Sprache abrufen kann. Hive Apache Hive, eine (ursprünglich von Facebook) entwickelte Data-Warehouse-Infrastruktur auf Basis von Hadoop, ermöglicht Datenzusammenfassungen, Ad-hoc-Abfragen und die Analyse großer Datensätze. Sie bietet einen Mechanismus, um eine Struktur auf diese Daten zu projizieren und die Daten mittels HiveQL, einer SQL-ähnlichen Sprache, abzufragen. Zudem vereinfacht Hive die Integration mit Business Intelligence- und Visualisierungstools. 18

19 HBase HBase ist eine nicht relationale, spaltenorientierte Datenbank, die auf das Hadoop Distributed File System (HDFS) aufsetzt. Sie bietet einen fehlertoleranten Speicher und einen schnellen Zugriff auf große Mengen an Sparse Data. Zudem erweitert sie Hadoop um Transaktionsfunktionen, sodass der Nutzer die Möglichkeit zum Aktualisieren, Einfügen und Löschen hat. HBase wurde ursprünglich von Facebook für dessen Messaging-Systeme entwickelt und wird auch von ebay intensiv genutzt. HCatalog HCatalog ist ein Tabellen- und Speicher-Management-Service für Daten, die mittels Apache Hadoop erstellt werden. Dieser Service gewährleistet die Interoperabilität zwischen Datenverarbeitungstools wie Pig, MapReduce, Streaming und Hive und ermöglicht die gemeinsame Nutzung von Schemata und Datentyp-Mechanismen. Flume Flume ist ein System von Agents, die sich in einem Hadoop-Cluster befinden. Diese Agents sind innerhalb der gesamten IT-Infrastruktur implementiert, sammeln Daten und integrieren sie dann wieder in Hadoop. Oozie Oozie ist ein Workflow-System, das Jobs koordiniert, die in verschiedenen Sprachen wie etwa MapReduce, Pig und Hive geschrieben wurden. Es stellt Verbindungen zwischen diesen Jobs her und erlaubt es, die Reihenfolge bzw. Abhängigkeiten untereinander festzulegen. Mahout Mahout ist eine Data-Mining-Bibliothek, die gängige Algorithmen für das Clustering und für die statistische Modellierung in MapReduce implementiert. 19

20 Sqoop Bei Sqoop handelt es sich um einen Satz an Datenintegrationstools, mit denen Nicht-Hadoop- Datenspeicher mit herkömmlichen relationalen Datenbanken und Data-Warehouses interagieren können. NoSQL (Nicht nur SQL) NoSQL bezieht sich auf eine große Gruppe von Datenspeicher-Mechanismen, die sich erheblich von den bekannten, herkömmlichen relationalen Datenbanken (RDBMS) unterscheiden. Diese Technologien implementieren ihre eigene Abfragesprache und basieren in der Regel auf erweiterten Programmierstrukturen für Schlüssel-/Wert-Beziehungen, definierte Objekte, Tabellenmethoden oder Tupel. Der Begriff wird oft verwendet, um die große Vielfalt an Datenspeichern zu beschreiben, die als Big Data klassifiziert sind. Einige der größten Namen in der Big-Data-Welt sind u.a. Cassandra, MongoDB, NuoDB, Couchbase und VoltDB. 20

Big Data Informationen neu gelebt

Big Data Informationen neu gelebt Seminarunterlage Version: 1.01 Copyright Version 1.01 vom 21. Mai 2015 Dieses Dokument wird durch die veröffentlicht. Copyright. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen

Mehr

Hadoop aus IT-Operations Sicht Teil 1 Hadoop-Grundlagen

Hadoop aus IT-Operations Sicht Teil 1 Hadoop-Grundlagen Hadoop aus IT-Operations Sicht Teil 1 Hadoop-Grundlagen Brownbag am Freitag, den 26.07.2013 Daniel Bäurer inovex GmbH Systems Engineer Wir nutzen Technologien, um unsere Kunden glücklich zu machen. Und

Mehr

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht Big-Data-Technologien - Überblick - Quelle: http://www.ingenieur.de/panorama/fussball-wm-in-brasilien/elektronischer-fussball-smartphone-app-helfen-training Big-Data-Anwendungen im Unternehmen Logistik

Mehr

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar!

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar! Clouds Wolkig bis Heiter Erwartungen der Nutzer Er ist verwöhnt! Verfügbarkeit Viele Anwendungen Intuitive Interfaces Hohe Leistung Er ist nicht dankbar! Mehr! Mehr! Mehr! Moore 1 Erwartungen der Entwickler

Mehr

Big Data Plattformen für polystrukturierte Daten neue Chancen und Herausforderungen

Big Data Plattformen für polystrukturierte Daten neue Chancen und Herausforderungen Big Data Plattformen für polystrukturierte Daten neue Chancen und Herausforderungen Oracle DWH-Konferenz 21. März 2012 Dr. Carsten Bange Gründer & Geschäftsführer BARC Big Data bietet Methoden und Technologien

Mehr

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension

Mehr

Review Freelancer-Workshop: Fit für Big Data. Mittwoch, 29.04.2015 in Hamburg

Review Freelancer-Workshop: Fit für Big Data. Mittwoch, 29.04.2015 in Hamburg Review Freelancer-Workshop: Fit für Big Data Mittwoch, 29.04.2015 in Hamburg Am Mittwoch, den 29.04.2015, hatten wir von productive-data in Zusammenarbeit mit unserem langjährigen Partner Informatica zu

Mehr

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zettabyte CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zetabyte: analytische Datenbanken Die Datenflut. Analytische Datenbanken: Was ist neu? Analytische Datenbanken:

Mehr

Big Data Hype und Wirklichkeit Bringtmehrauchmehr?

Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Günther Stürner, Vice President Sales Consulting 1 Copyright 2011, Oracle and/or its affiliates. All rights Überschrift 2 Copyright 2011, Oracle and/or

Mehr

WEBINAR@LUNCHTIME THEMA: SAS TOOLS FÜR DIE DATENVERARBEITUNG IN HADOOP ODER WIE REITET MAN ELEFANTEN?" HANS-JOACHIM EDERT

WEBINAR@LUNCHTIME THEMA: SAS TOOLS FÜR DIE DATENVERARBEITUNG IN HADOOP ODER WIE REITET MAN ELEFANTEN? HANS-JOACHIM EDERT WEBINAR@LUNCHTIME THEMA: SAS TOOLS FÜR DIE DATENVERARBEITUNG IN HADOOP ODER WIE REITET MAN ELEFANTEN?" Copyr i g ht 2012, SAS Ins titut e Inc. All rights res er ve d. HANS-JOACHIM EDERT EBINAR@LUNCHTIME

Mehr

Einführung in Hadoop

Einführung in Hadoop Einführung in Hadoop Inhalt / Lern-Ziele Übersicht: Basis-Architektur von Hadoop Einführung in HDFS Einführung in MapReduce Ausblick: Hadoop Ökosystem Optimierungen Versionen 10.02.2012 Prof. Dr. Christian

Mehr

Big Data Mythen und Fakten

Big Data Mythen und Fakten Big Data Mythen und Fakten Mario Meir-Huber Research Analyst, IDC Copyright IDC. Reproduction is forbidden unless authorized. All rights reserved. About me Research Analyst @ IDC Author verschiedener IT-Fachbücher

Mehr

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen 01000111101001110111001100110110011001 Volumen 10 x Steigerung des Datenvolumens alle fünf Jahre Big Data Entstehung

Mehr

Apache Lucene. Mach s wie Google! Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache.org

Apache Lucene. Mach s wie Google! Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache.org Apache Lucene Mach s wie Google! Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache.org 1 Apache Apache Software Foundation Software free of charge Apache Software

Mehr

June 2015. Automic Hadoop Agent. Data Automation - Hadoop Integration

June 2015. Automic Hadoop Agent. Data Automation - Hadoop Integration June 2015 Automic Hadoop Agent Data Automation - Hadoop Integration + Aufbau der Hadoop Anbindung + Was ist eigentlich ist MapReduce? + Welches sind die Stärken von Hadoop + Welches sind die Schwächen

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 0 Es TOP 10 DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 wird ein wichtiges Jahr für BIG (Business Intelligence Growth) 2012 war ein fantastisches Jahr für Business Intelligence! Die biedere alte

Mehr

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2 Seminar Cloud Data Management WS09/10 Tabelle1 Tabelle2 1 Einführung DBMS in der Cloud Vergleich verschiedener DBMS Beispiele Microsoft Azure Amazon RDS Amazon EC2 Relational Databases AMIs Was gibt es

Mehr

DWH Szenarien. www.syntegris.de

DWH Szenarien. www.syntegris.de DWH Szenarien www.syntegris.de Übersicht Syntegris Unser Synhaus. Alles unter einem Dach! Übersicht Data-Warehouse und BI Projekte und Kompetenzen für skalierbare BI-Systeme. Vom Reporting auf operativen

Mehr

Neuerungen Analysis Services

Neuerungen Analysis Services Neuerungen Analysis Services Neuerungen Analysis Services Analysis Services ermöglicht Ihnen das Entwerfen, Erstellen und Visualisieren von Data Mining-Modellen. Diese Mining-Modelle können aus anderen

Mehr

Prof. Dr.-Ing. Rainer Schmidt 1

Prof. Dr.-Ing. Rainer Schmidt 1 Prof. Dr.-Ing. Rainer Schmidt 1 Business Analytics und Big Data sind Thema vieler Veröffentlichungen. Big Data wird immer häufiger bei Google als Suchbegriff verwendet. Prof. Dr.-Ing. Rainer Schmidt 2

Mehr

Integration Services - Dienstarchitektur

Integration Services - Dienstarchitektur Integration Services - Dienstarchitektur Integration Services - Dienstarchitektur Dieser Artikel solle dabei unterstützen, Integration Services in Microsoft SQL Server be sser zu verstehen und damit die

Mehr

Business Intelligence - Wie passt das zum Mainframe?

Business Intelligence - Wie passt das zum Mainframe? Business Intelligence - Wie passt das zum Mainframe? IBM IM Forum, 15.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Ressourcen bei BARC für Ihr Projekt Durchführung von internationalen Umfragen,

Mehr

Hadoop. Simon Prewo. Simon Prewo

Hadoop. Simon Prewo. Simon Prewo Hadoop Simon Prewo Simon Prewo 1 Warum Hadoop? SQL: DB2, Oracle Hadoop? Innerhalb der letzten zwei Jahre hat sich die Datenmenge ca. verzehnfacht Die Klassiker wie DB2, Oracle usw. sind anders konzeptioniert

Mehr

Ratgeber Integration von Big Data

Ratgeber Integration von Big Data SEPTEMBER 2013 Ratgeber Integration von Big Data Gesponsert von Inhalt Einführung 1 Herausforderungen der Big-Data-Integration: Neues und Altes 1 Voraussetzungen für die Big-Data-Integration 3 Bevorzugte

Mehr

Symbiose hybrider Architekturen im Zeitalter digitaler Transformation. Hannover, 18.03.2015

Symbiose hybrider Architekturen im Zeitalter digitaler Transformation. Hannover, 18.03.2015 Symbiose hybrider Architekturen im Zeitalter digitaler Transformation Hannover, 18.03.2015 Business Application Research Center (BARC) B (Analystengruppe Europas führendes IT-Analysten- und -Beratungshaus

Mehr

Oracle 10g und SQL Server 2005 ein Vergleich. Thomas Wächtler 39221

Oracle 10g und SQL Server 2005 ein Vergleich. Thomas Wächtler 39221 Oracle 10g und SQL Server 2005 ein Vergleich Thomas Wächtler 39221 Inhalt 1. Einführung 2. Architektur SQL Server 2005 1. SQLOS 2. Relational Engine 3. Protocol Layer 3. Services 1. Replication 2. Reporting

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

Big Data Vom Hype zum Geschäftsnutzen

Big Data Vom Hype zum Geschäftsnutzen Big Data Vom Hype zum Geschäftsnutzen IBM IM Forum, Berlin, 16.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Hype 15.04.2013 BARC 2013 2 1 Interesse an Big Data Nature 09-2008 Economist 03-2010

Mehr

Hadoop Demo HDFS, Pig & Hive in Action. Oracle DWH Konferenz 2014 Carsten Herbe

Hadoop Demo HDFS, Pig & Hive in Action. Oracle DWH Konferenz 2014 Carsten Herbe Hadoop Demo HDFS, Pig & Hive in Action Oracle DWH Konferenz 2014 Carsten Herbe Wir wollen eine semi-strukturierte Textdatei in Hadoop verarbeiten und so aufbereiten, dass man die Daten relational speichern

Mehr

Big Data Lösungen mit Apache Hadoop. Gunnar Schröder, T-Systems Multimedia Solutions GmbH

Big Data Lösungen mit Apache Hadoop. Gunnar Schröder, T-Systems Multimedia Solutions GmbH Big Data Lösungen mit Apache Hadoop Gunnar Schröder, T-Systems Multimedia Solutions GmbH Was ist Big Data? 2 Charakteristiken von Big Data Three Vs of Big Data VOLUME Terabytes Petabytes Exabytes Zettabytes

Mehr

Copyr i g ht 2014, SAS Ins titut e Inc. All rights res er ve d. HERZLICH WILLKOMMEN ZUR VERANSTALTUNG HADOOP

Copyr i g ht 2014, SAS Ins titut e Inc. All rights res er ve d. HERZLICH WILLKOMMEN ZUR VERANSTALTUNG HADOOP HERZLICH WILLKOMMEN ZUR VERANSTALTUNG HADOOP AGENDA HADOOP 9:00 09:15 Das datengetriebene Unternehmen: Big Data Analytics mit SAS die digitale Transformation: Handlungsfelder für IT und Fachbereiche Big

Mehr

4. WORKSHOP - OSBI Big Data und Datenvirtualisierung. Dr. Sebastian Streit & Maxim Zehe

4. WORKSHOP - OSBI Big Data und Datenvirtualisierung. Dr. Sebastian Streit & Maxim Zehe 4. WORKSHOP - OSBI Big Data und Datenvirtualisierung Dr. Sebastian Streit & Maxim Zehe F. Hoffmann-La Roche AG Gegründet 1896 in Basel Über 80.000 Mitarbeitende Führende Position in Pharma Fokussierung

Mehr

Software EMEA Performance Tour 2013. 17.-19 Juni, Berlin

Software EMEA Performance Tour 2013. 17.-19 Juni, Berlin Software EMEA Performance Tour 2013 17.-19 Juni, Berlin HP Autonomy Information Governance Strategie: Die Kontrolle über die Informationsflut Petra Berneaud - Account Manager Autonomy Status in vielen

Mehr

DATA WAREHOUSE. Big Data Alfred Schlaucher, Oracle

DATA WAREHOUSE. Big Data Alfred Schlaucher, Oracle DATA WAREHOUSE Big Data Alfred Schlaucher, Oracle Scale up Unternehmensdaten zusammenfassen Noch mehr Informationen aus Unternehmens- Daten ziehen! Datenmengen, Performance und Kosten Daten als Geschäftsmodell

Mehr

on Azure mit HDInsight & Script Ac2ons

on Azure mit HDInsight & Script Ac2ons Willkommen beim #GAB 2015! on Azure mit HDInsight & Script Ac2ons Lokale Sponsoren: HansPeter Grahsl Netconomy Entwickler & Berater FH CAMPUS 02 Twi9er: @hpgrahsl Überblick Inhalte Was ist HDInsight? Wozu

Mehr

Hadoop aus IT-Operations Sicht Teil 2 Hardware- und Netzwerk-Grundlagen

Hadoop aus IT-Operations Sicht Teil 2 Hardware- und Netzwerk-Grundlagen Hadoop aus IT-Operations Sicht Teil 2 Hardware- und Netzwerk-Grundlagen Brownbag am Freitag, den 09.08.2013 Daniel Bäurer inovex GmbH Systems Engineer Wir nutzen Technologien, um unsere Kunden glücklich

Mehr

vfabric-daten Big Data Schnell und flexibel

vfabric-daten Big Data Schnell und flexibel vfabric-daten Big Data Schnell und flexibel September 2012 2012 VMware Inc. All rights reserved Im Mittelpunkt: Daten Jeden Morgen wache ich auf und frage mich: Wie kann ich den Datenfluss optimieren,

Mehr

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd.

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd. Warum viele Daten für ein smartes Unternehmen wichtig sind Gerald AUFMUTH IBM Client Technical Specialst Data Warehouse Professional Explosionsartige Zunahme an Informationen Volumen. 15 Petabyte Menge

Mehr

Lehrgebiet Informationssysteme

Lehrgebiet Informationssysteme Lehrgebiet AG Datenbanken und (Prof. Michel, Prof. Härder) AG Heterogene (Prof. Deßloch) http://wwwlgis.informatik.uni-kl.de/ Was sind? Computergestützte Programmsysteme, die Informationen erfassen, dauerhaft

Mehr

BIG DATA HYPE ODER CHANCE

BIG DATA HYPE ODER CHANCE BIG DATA HYPE ODER CHANCE 1 Fuchs Dominik 16.05.2014 Fahrplan 2 Begriff Big Data Die 3 V s Fallbeispiel Google Was? Wie? Womit? Fazit & Ausblick in die Zukunft Der Begriff Big Data 3 Datenmengen, die zu

Mehr

SQL PASS Treffen RG KA. Überblick Microsoft Power BI Tools. Stefan Kirner Karlsruhe, 27.05.2014

SQL PASS Treffen RG KA. Überblick Microsoft Power BI Tools. Stefan Kirner Karlsruhe, 27.05.2014 SQL PASS Treffen RG KA Überblick Microsoft Power BI Tools Stefan Kirner Karlsruhe, 27.05.2014 Agenda Die wichtigsten Neuerungen in SQL 2012 und Power BI http://office.microsoft.com/en-us/office365-sharepoint-online-enterprise-help/power-bi-for-office-365-overview-andlearning-ha104103581.aspx

Mehr

Neue Ansätze der Softwarequalitätssicherung

Neue Ansätze der Softwarequalitätssicherung Neue Ansätze der Softwarequalitätssicherung Googles MapReduce-Framework für verteilte Berechnungen am Beispiel von Apache Hadoop Universität Paderborn Fakultät für Elektrotechnik, Informatik und Mathematik

Mehr

B1 - Big Data Science: Tornado oder laues Lüftchen? Uetliberg, 15.09.2015 www.boak.ch

B1 - Big Data Science: Tornado oder laues Lüftchen? Uetliberg, 15.09.2015 www.boak.ch B1 - Big Data Science: Tornado oder laues Lüftchen? Uetliberg, 15.09.2015 www.boak.ch WANN REDEN WIR VON BIG DATA SCIENCE? Big Data ist der technische Teil von Big Data Science. Mehr Daten! Mehr Datenquellen(-änderungen)!

Mehr

Big Data. Prof. Robert Jäschke Forschungszentrum L3S Leibniz Universität Hannover

Big Data. Prof. Robert Jäschke Forschungszentrum L3S Leibniz Universität Hannover Big Data Prof. Robert Jäschke Forschungszentrum L3S Leibniz Universität Hannover Agenda Was ist Big Data? Parallele Programmierung Map/Reduce Der Big Data Zoo 2 3Vs oder: Was ist Big Data? Deutsche Telekom:

Mehr

Hannover, 20.03.2015 Halle 5 Stand A36

Hannover, 20.03.2015 Halle 5 Stand A36 Integrierte Unternehmensinformationen als Fundament für die digitale Transformation vor allem eine betriebswirtschaftliche Aufgabe Hannover, 20.03.2015 Halle 5 Stand A36 Business Application Research Center

Mehr

Travian Games nutzt Pentaho Datenintegration und Business Analytics zur Optimierung des Spieldesigns

Travian Games nutzt Pentaho Datenintegration und Business Analytics zur Optimierung des Spieldesigns Travian Games nutzt Pentaho Datenintegration und Business Analytics zur Optimierung des Spieldesigns Pentaho ermöglicht Analyse der von den über 120 Millionen registrierten Spielern generierten Datenflut

Mehr

Business Intelligence mit MS SharePoint Server

Business Intelligence mit MS SharePoint Server Business Intelligence mit MS SharePoint Server Business Intelligence mit MS SharePoint Server Business Intelligence mit MS SharePoint Server erleichtert es den Entscheidungsträgern, auf Informationen jederzeit

Mehr

Information Governance die unterschätzte Unternehmensdisziplin IBM Inside 2010, Okt. 2010

Information Governance die unterschätzte Unternehmensdisziplin IBM Inside 2010, Okt. 2010 Information Governance die unterschätzte Unternehmensdisziplin IBM Inside 2010, Okt. 2010 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Information Governance Information Management

Mehr

Spark, Impala und Hadoop in der Kreditrisikoberechnung

Spark, Impala und Hadoop in der Kreditrisikoberechnung Spark, Impala und Hadoop in der Kreditrisikoberechnung Big Data In-Memory-Technologien für mittelgroße Datenmengen TDWI München, 22. Juni 2015 Joschka Kupilas, Data Scientist, Adastra GmbH 2 Inhalt Vorwort

Mehr

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15 9.30 10.15 Kaffee & Registrierung 10.15 10.45 Begrüßung & aktuelle Entwicklungen bei QUNIS 10.45 11.15 11.15 11.45 Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics

Mehr

SAP HANA eine Plattform für innovative Anwendungen

SAP HANA eine Plattform für innovative Anwendungen SAP HANA eine Plattform für innovative Anwendungen Top Intelligence: Big Data & SAP HANA Zürich, Frankfurt, Hamburg, München, Mülheim/R Februar 2014 Dr. Wolfgang Martin Analyst und Mitglied im Boulder

Mehr

Pavlo Baron. Big Data. für IT-Entscheider. Riesige Datenmengen. und moderne Technologien. gewinnbringend nutzen HANSER

Pavlo Baron. Big Data. für IT-Entscheider. Riesige Datenmengen. und moderne Technologien. gewinnbringend nutzen HANSER Pavlo Baron Big Data für IT-Entscheider Riesige Datenmengen und moderne Technologien gewinnbringend nutzen HANSER Inhalt Vorwort XI 1 Management Summary 1 2 Was? 7 2.1 Mein klassisches Business ist konkurrenzlos,

Mehr

Geschäftsprozessmodellierung und implementierung am Beispiel SAP ERP

Geschäftsprozessmodellierung und implementierung am Beispiel SAP ERP Geschäftsprozessmodellierung und implementierung am Beispiel SAP ERP V04 02. Mai 2011, 16.15-17.45 Uhr, ITS-Pool nur zugelassene Teilnehmer Niedersächsisches Hochschulkompetenzzentrum für SAP (CCC) Aktuelles

Mehr

TRACK II Datenmanagement Strategien & Big Data Speicherkonzepte. TRACK I Big Data Analytics & Self Service BI

TRACK II Datenmanagement Strategien & Big Data Speicherkonzepte. TRACK I Big Data Analytics & Self Service BI 9.30 10.15 Kaffee & Registrierung 10.15 10.45 Begrüßung & aktuelle Entwicklungen bei QUNIS 10.45 11.15 11.15 11.45 Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics

Mehr

Storage-Trends am LRZ. Dr. Christoph Biardzki

Storage-Trends am LRZ. Dr. Christoph Biardzki Storage-Trends am LRZ Dr. Christoph Biardzki 1 Über das Leibniz-Rechenzentrum (LRZ) Seit 50 Jahren Rechenzentrum der Bayerischen Akademie der Wissenschaften IT-Dienstleister für Münchner Universitäten

Mehr

Hadoop-as-a-Service (HDaaS)

Hadoop-as-a-Service (HDaaS) Hadoop-as-a-Service (HDaaS) Flexible und skalierbare Referenzarchitektur Arnold Müller freier IT Mitarbeiter und Geschäftsführer Lena Frank Systems Engineer @ EMC Marius Lohr Systems Engineer @ EMC Fallbeispiel:

Mehr

SQL on Hadoop für praktikables BI auf Big Data.! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh

SQL on Hadoop für praktikables BI auf Big Data.! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh SQL on Hadoop für praktikables BI auf Big Data! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh War nicht BigData das gleiche NoSQL? 2 Wie viele SQL Lösungen für Hadoop gibt es mittlerweile? 3 ! No SQL!?

Mehr

Prozessoptimierung in der Markt- und Medienforschung bei der Deutschen Welle (DW) mit Big Data Technologien. Berlin, Mai 2013

Prozessoptimierung in der Markt- und Medienforschung bei der Deutschen Welle (DW) mit Big Data Technologien. Berlin, Mai 2013 Prozessoptimierung in der Markt- und Medienforschung bei der Deutschen Welle (DW) mit Big Data Technologien Berlin, Mai 2013 The unbelievable Machine Company? 06.05.13 The unbelievable Machine Company

Mehr

Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence

Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence IBM Netezza Roadshow 30. November 2011 Carsten Bange Gründer & Geschäftsführer BARC Die Krise hat die Anforderungen

Mehr

Big Data in Azure. Ein Beispiel mit HD Insight. Ralf Stemmer

Big Data in Azure. Ein Beispiel mit HD Insight. Ralf Stemmer Big in Azure Ein Beispiel mit HD Insight Ralf Stemmer Agenda owas ist Big? Was ist HD Insight? owelche Probleme kann man damit lösen? odemo Was ist Big? Was ist HD Insight? Datenexplosion - Rasanter Zuwachs

Mehr

Oracle GridControl Tuning Pack. best Open Systems Day April 2010. Unterföhring. Marco Kühn best Systeme GmbH marco.kuehn@best.de

Oracle GridControl Tuning Pack. best Open Systems Day April 2010. Unterföhring. Marco Kühn best Systeme GmbH marco.kuehn@best.de Oracle GridControl Tuning Pack best Open Systems Day April 2010 Unterföhring Marco Kühn best Systeme GmbH marco.kuehn@best.de Agenda GridControl Overview Tuning Pack 4/26/10 Seite 2 Overview Grid Control

Mehr

Infografik Business Intelligence

Infografik Business Intelligence Infografik Business Intelligence Top 5 Ziele 1 Top 5 Probleme 3 Im Geschäft bleiben 77% Komplexität 28,6% Vertrauen in Zahlen sicherstellen 76% Anforderungsdefinitionen 24,9% Wirtschaflicher Ressourceneinsatz

Mehr

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit Big Data und Business Analytics für Kunden und Unternehmen Umfangreiche und ständig anwachsende Datenvolumen verändern die Art und Weise, wie in zahlreichen Branchen Geschäfte abgewickelt werden. Da immer

Mehr

Session Storage im Zend Server Cluster Manager

Session Storage im Zend Server Cluster Manager Session Storage im Zend Server Cluster Manager Jan Burkl System Engineer, Zend Technologies Agenda Einführung in Zend Server und ZSCM Überblick über PHP Sessions Zend Session Clustering Session Hochverfügbarkeit

Mehr

Apache Hadoop Anwendungsmuster

Apache Hadoop Anwendungsmuster Community-orientiert. Apache Hadoop Apache Hadoop Anwendungsmuster April 2013 2013 Hortonworks Inc. http://www.hortonworks.com Big Data: Apache Hadoop auf den Punkt gebracht Um den Begriff Big Data wird

Mehr

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data Herausforderungen und Chancen für Controller ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC BARC: Expertise für datengetriebene Organisationen Beratung Strategie

Mehr

Apache Hadoop. Distribute your data and your application. Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache.

Apache Hadoop. Distribute your data and your application. Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache. Apache Hadoop Distribute your data and your application Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache.org Apache The Apache Software Foundation Community und

Mehr

VORTEILE FÜR IHR UNTERNEHMEN DURCH DATENBANK QUELLCODEVERWALTUNG

VORTEILE FÜR IHR UNTERNEHMEN DURCH DATENBANK QUELLCODEVERWALTUNG 1 VORTEILE FÜR IHR UNTERNEHMEN DURCH DATENBANK QUELLCODEVERWALTUNG Wie Sie mit SQL Source Control Produktivität, Change Management, Skalierbarkeit und Codequalität verbessern 2 EINFÜHRUNG Für Anwendungsentwickler

Mehr

Information-Design-Tool

Information-Design-Tool Zusatzkapitel Information-Design-Tool zum Buch»HR-Reporting mit SAP «von Richard Haßmann, Anja Marxsen, Sven-Olaf Möller, Victor Gabriel Saiz Castillo Galileo Press, Bonn 2013 ISBN 978-3-8362-1986-0 Bonn

Mehr

QUICK-START EVALUIERUNG

QUICK-START EVALUIERUNG Pentaho 30 für 30 Webinar QUICK-START EVALUIERUNG Ressourcen & Tipps Leo Cardinaals Sales Engineer 1 Mit Pentaho Business Analytics haben Sie eine moderne und umfassende Plattform für Datenintegration

Mehr

Konzeption eines Master-Data-Management-Systems. Sven Schilling

Konzeption eines Master-Data-Management-Systems. Sven Schilling Konzeption eines Master-Data-Management-Systems Sven Schilling Gliederung Teil I Vorstellung des Unternehmens Thema der Diplomarbeit Teil II Master Data Management Seite 2 Teil I Das Unternehmen Vorstellung

Mehr

2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung

2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung 2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung Reporting, Analyse und Data Mining André Henkel, initions AG 22. und 23. Oktober 2013 in Hamburg

Mehr

Oracle Datenbank: Chancen und Nutzen für den Mittelstand

Oracle Datenbank: Chancen und Nutzen für den Mittelstand Oracle Datenbank: Chancen und Nutzen für den Mittelstand DIE BELIEBTESTE DATENBANK DER WELT DESIGNT FÜR DIE CLOUD Das Datenmanagement war für schnell wachsende Unternehmen schon immer eine große Herausforderung.

Mehr

Business Analytics in der Big Data-Welt

Business Analytics in der Big Data-Welt Business Analytics in der Big Data-Welt Frankfurt, Juni 2014 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust Big Data-Analytik "The way I look at big data analytics is it's not a technology,

Mehr

Business Intelligence Governance

Business Intelligence Governance Business Intelligence Governance von der Vision zur Realität im Unternehmensalltag Webinar September 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das intelligente Unternehmen

Mehr

Datawarehouse Architekturen. Einheitliche Unternehmenssicht

Datawarehouse Architekturen. Einheitliche Unternehmenssicht Datawarehouse Architekturen Einheitliche Unternehmenssicht Was ist Datawarehousing? Welches sind die Key Words? Was bedeuten sie? DATA PROFILING STAGING AREA OWB ETL OMB*PLUS SAS DI DATA WAREHOUSE DATA

Mehr

Ab in den Himmel: Was kommt jenseits der Cloud? 20 R. Altenhöner Ab in den Himmel: Was kommt jenseits der Cloud? 04.6.2014 Bibliothekartag 2014

Ab in den Himmel: Was kommt jenseits der Cloud? 20 R. Altenhöner Ab in den Himmel: Was kommt jenseits der Cloud? 04.6.2014 Bibliothekartag 2014 Ab in den Himmel: Was kommt jenseits der Cloud? 1 20 R. Altenhöner Ab in den Himmel: Was kommt jenseits der Cloud? 04.6.2014 Bibliothekartag 2014 Inhalt 1. Einleitung / Motivation 2. Cloud ein bisschen

Mehr

Data Mining-Modelle und -Algorithmen

Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining ist ein Prozess, bei dem mehrere Komponenten i n- teragieren. Sie greifen auf Datenquellen, um diese zum Training,

Mehr

ETL in den Zeiten von Big Data

ETL in den Zeiten von Big Data ETL in den Zeiten von Big Data Dr Oliver Adamczak, IBM Analytics 1 1 Review ETL im Datawarehouse 2 Aktuelle Herausforderungen 3 Future of ETL 4 Zusammenfassung 2 2015 IBM Corporation ETL im Datawarehouse

Mehr

Zuerst zu Open Source wechseln

Zuerst zu Open Source wechseln Zuerst zu Open Source wechseln Zuerst zu Open Source wechseln Inhaltsverzeichnis Zuerst zu Open Source wechseln... 3 In die Mitte.... 4 Veränderungen in der Wirtschaftlichkeit der IT.... 6 2 Zuerst zu

Mehr

Big Data 10.000 ft. 20. Februar 2014 IHK Darmstadt DR. ROBERTO RAO, AXXESSIO GMBH

Big Data 10.000 ft. 20. Februar 2014 IHK Darmstadt DR. ROBERTO RAO, AXXESSIO GMBH Big Data 10.000 ft 20. Februar 2014 IHK Darmstadt DR. ROBERTO RAO, AXXESSIO GMBH Inhalte Big Data Was ist das? Anwendungsfälle für Big Data Big Data Architektur Big Data Anbieter Was passiert in Zukunft

Mehr

Prozess- und Service-Orientierung im Unternehmen mehr als Technologie

Prozess- und Service-Orientierung im Unternehmen mehr als Technologie Prozess- und Service-Orientierung im Unternehmen mehr als Technologie Presse Talk CeBIT 2007 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business

Mehr

Agenda. Portfolioübersicht. Business-Case. Zusammenfassung. Das Ziel. SAP EIM Produktportfolio. Datenreorganisation mit SAP EIM

Agenda. Portfolioübersicht. Business-Case. Zusammenfassung. Das Ziel. SAP EIM Produktportfolio. Datenreorganisation mit SAP EIM Datenreorganisation > Effiziente und performante Stammdatenreorganisation mit SAP Data Services < Simon Hartstein / T-Systems Data Migration Consulting AG / Harmonization & Consolidation Mai 21, 2014 Agenda

Mehr

Oracle Big Data Technologien Ein Überblick

Oracle Big Data Technologien Ein Überblick Oracle Big Data Technologien Ein Überblick Ralf Lange Global ISV & OEM Sales NoSQL: Eine kurze Geschichte Internet-Boom: Erste Ansätze selbstgebauter "Datenbanken" Google stellt "MapReduce"

Mehr

Advanced Analytics mit EXAPowerlytics. Technisches Whitepaper

Advanced Analytics mit EXAPowerlytics. Technisches Whitepaper Advanced Analytics mit EXAPowerlytics Technisches Whitepaper Inhalt 1. Zusammenfassung... 3 2. Einführung... 4 3. Fachliche Einführung... 5 4. Beispiel: Zeichen zählen... 7 5. Fazit... 9 6. Anhang... 10-2

Mehr

Online Help StruxureWare Data Center Expert

Online Help StruxureWare Data Center Expert Online Help StruxureWare Data Center Expert Version 7.2.7 Virtuelle StruxureWare Data Center Expert-Appliance Der StruxureWare Data Center Expert-7.2-Server ist als virtuelle Appliance verfügbar, die auf

Mehr

EMC. Data Lake Foundation

EMC. Data Lake Foundation EMC Data Lake Foundation 180 Wachstum unstrukturierter Daten 75% 78% 80% 71 EB 106 EB 133 EB Weltweit gelieferte Gesamtkapazität Unstrukturierte Daten Quelle März 2014, IDC Structured vs. Unstructured

Mehr

Bessere Daten durch Stammdatenmanagement

Bessere Daten durch Stammdatenmanagement make connections share ideas be inspired Bessere Daten durch Stammdatenmanagement Mit SAS MDM, bessere Stammdaten für operativen Systeme make connections share ideas be inspired Overview Mit SAS MDM bessere

Mehr

Die richtige Cloud für Ihr Unternehmen.

Die richtige Cloud für Ihr Unternehmen. Die richtige Cloud für Ihr Unternehmen. Das ist die Microsoft Cloud. Jedes einzelne Unternehmen ist einzigartig. Ob Gesundheitswesen oder Einzelhandel, Produktion oder Finanzwesen keine zwei Unternehmen

Mehr

Wide Column Stores. Felix Bruckner Mannheim, 15.06.2012

Wide Column Stores. Felix Bruckner Mannheim, 15.06.2012 Wide Column Stores Felix Bruckner Mannheim, 15.06.2012 Agenda Einführung Motivation Grundlagen NoSQL Grundlagen Wide Column Stores Anwendungsfälle Datenmodell Technik Wide Column Stores & Cloud Computing

Mehr

Wachstumsförderung mit CRM

Wachstumsförderung mit CRM Wachstumsförderung mit CRM Computerwoche CRM Initiative Feb. 2007 Dr. Wolfgang Martin Analyst, Mitglied im CRM-Expertenrat und Research Advisor am Institut für Business Intelligence Wachstumsförderung

Mehr

Durch Zahlen zu Maßnahmen: Verbesserung des Travel Management Programms durch strategische KPIs und sinnvolle Messungen

Durch Zahlen zu Maßnahmen: Verbesserung des Travel Management Programms durch strategische KPIs und sinnvolle Messungen Durch Zahlen zu Maßnahmen: Verbesserung des Travel Management Programms durch strategische KPIs und sinnvolle Messungen Management Summary Durch Zahlen zu Maßnahmen: Verbesserung des Travel Management

Mehr

Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch

Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch Unstrukturierte Daten spielen eine immer bedeutender Rolle in Big Data-Projekten. Zunächst gilt es

Mehr

IT-Monitoring braucht Sicherheit Sicherheit braucht Monitoring. Günther Klix op5 GmbH - Area Manager D/A/CH

IT-Monitoring braucht Sicherheit Sicherheit braucht Monitoring. Günther Klix op5 GmbH - Area Manager D/A/CH IT-Monitoring braucht Sicherheit Sicherheit braucht Monitoring Günther Klix op5 GmbH - Area Manager D/A/CH Technische Anforderungen an IT Immer komplexere & verteiltere Umgebungen zunehmend heterogene

Mehr

Seminar WS 2012/13. S. Chaudhuri et al, CACM, Aug. 2011. Parallel DBS vs. Open Platforms for Big Data, e.g. HaDoop Near-Realtime OLAP

Seminar WS 2012/13. S. Chaudhuri et al, CACM, Aug. 2011. Parallel DBS vs. Open Platforms for Big Data, e.g. HaDoop Near-Realtime OLAP Seminar WS 2012/13 S. Chaudhuri et al, CACM, Aug. 2011 Parallel DBS vs. Open Platforms for Big Data, e.g. HaDoop Near-Realtime OLAP 2 Vorkonfigurierte, komplette Data Warehouse-Installation Mehrere Server,

Mehr

Big Data in der Forschung

Big Data in der Forschung Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die

Mehr

Spotlight - KABEL DEUTSCHLAND

Spotlight - KABEL DEUTSCHLAND Spotlight - KABEL DEUTSCHLAND GIEDRE ALEKNONYTE Kabel Deutschland (KD), der größte Kabelnetzbetreiber in Deutschland, stellt seinen Kunden digitale, HD- und analoge TV-, Pay- TV- und DVR-Angebote, Video-on-Demand,

Mehr