Der Einfluss von Hadoop 2.0 auf neue Big-Data-Technologien

Größe: px
Ab Seite anzeigen:

Download "Der Einfluss von Hadoop 2.0 auf neue Big-Data-Technologien"

Transkript

1 eguide Hadoop 2.0 auf neue und EDELWEISS/FOTOLIA

2 Big- Unternehmen haben sich bis jetzt auf die Cloud für ihre Hadoop-Projekte verlassen doch dies ändert sich jetzt, und immer mehr Kunden wollen wissen, wie sie Hadoop On- Premises nutzen können. Dieser eguide erörtert den Einfluss von Hadoop 2.0 auf, sowie auch die Herausforderungen von Hadoop-Cluster auf Big-Data- Analytiks. Big-Data- Technologien Von Nicole Laskowski Unternehmen, die sich früh auf Big-Data-Territorium gewagt haben, verließen sich auf die Cloud für ihre Hadoop-Pilotprojekte. Laut Merv Adrian, Analyst bei Gartner, ändert sich das aber derzeit. Mittlerweile fragen immer mehr Kunden nach, wie sie Hadoop On-Premise nutzen können. Beobachtungen wie diese zeigen, wie schnell sich und die damit verbundenen Technologien weiterentwickeln. Das ist besonders der Fall seit Hadoop 2.0 (beziehungsweise 2.2.0) im Oktober letzten Jahres für alle Anwender verfügbar ist, argumentieren Adrian und sein Kollege Nick Heudecker. Die aktualisierte Version des Frameworks der Apache Software Foundation war aufgrund der neuen Funktion YARN (Yet Another Resource Negotiator) im Herbst letzten Jahres in den Schlagzeilen. Damit beendet Hadoop die Stapelverarbeitung und wird zu einer Echtzeit-Lösung. Die Gartner-Analysten sind sich sicher, dass die robustere Version zu einem weiteren Aufwärtstrend für Hadoop-Implementierungen führt. Da die Anwender immer mehr Erfahrungen sammeln, erwarten wir, dass sie größere Projekte erstellen werden, sagt Adrian während eines Webinars, das er zusammen mit Heudecker veranstaltete. Doch nicht nur größere Projekte, sondern auch völlig neue Projekte kommen hinzu, die miteinander in einer Weise interagieren können, wie es bisher nicht möglich war. Hadoop 2.0 könnte sogar in der Lage sein, tiefer in ein Unternehmen vorzudringen Seite 1 von 9

3 Big- und mit anderen Technologieschichten verbunden zu werden. Und während die meisten Firmen Big-Data-Anwendungen dafür nutzen, um transaktionale Daten zu verarbeiten, kann Hadoop 2.0 Firmen dabei helfen, unstrukturierten und semi-strukturierten Daten zu beackern, so die beiden Analysten. Schiebt man die Werbeversprechen beiseite, ist Hadoop 2.0 aber nicht fehlerfrei. Eine wesentliche Schwäche ist Security - oder besser deren Fehlen. Es ist wichtig zu beachten, dass diese Systeme größtenteils in webzentrierten Unternehmen aufwuchsen, die in erster Linie mit öffentlichen Daten arbeiten, erläutert Heudecker. Wenn mehr Unternehmen diese Technologie implementieren, müssen sie die Sicherheitlücke schließen. CIOs sollten davon ausgehen, dass Security und die großen Themen dieses Jahr sein werden. Diese Themen befinden sich bereits auf der Agenda einiger Anbietern, darunter Dataguise, Gazzang, Protegrity USA und Zettaset, so Adrian. Vieles, was sich mit beschäftigt, kombiniert verschiedener Datenströme mit dem Ziel, eine breitere, umfassendere Sicht auf die Kunden zu bekommen. Dadurch sind natürlich viele besorgt, wie sie den Datenschutz gewährleisten, ergänzt er. Hadoop-Anbieter reagieren auf den Markt Während des Webinars bot Adrian einen Überblick verschiedener Hadoop- Anbieter. Dabei erläuterte er auch, wie sich das Big-Data-Angebot einzelner Anbieter gestaltet, an wen sich die Lösungen richten und wohin sich der Markt entwickelt. Eine kurze Zusammenfassung: 1. Amazon Web Services (AWS): Die Kunden von AWS arbeiten mit Cloud-Anwendungen oder sind dabei, ihre Datenverarbeitung in die Cloud zu verlegen. Dabei diskutieren sie wenig über hybride On- Premise-/Cloud-Umgebungen. 2. Cloudera: In diesem Modell bewegt sich Hadoop auf das Zentrum der Data-Center-Architektur zu. Zudem wird es mit neuen und vorhandenen Systemen verbunden. Allerdings sollte man nicht erwarten, dass es in absehbarer Zeit vollständig verfügbar ist. Bei diesem Angebot steht vor allem die Marketing-Botschaft im Seite 2 von 9

4 Big- Vordergrund, sagt Adrian. Dahinter steht die Hadoop-Community, die eine künftige Version von Hadoop und dessen erwartete Rolle beschreibt. 3. Hortonworks: Das Yahoo-Spinoff fügt keine weiteren Bausteine zu seiner Distribution hinzu. Das bedeutet, wenn ein Unternehmen sich entscheidet, neue Bestandteil zu ergänzen, die nicht von Apache sind, müssen Sie diese Integration selbstständig machen, so Adrian. 4. International Business Machines (IBM): Laut Adrian versucht IBM mit allen Mitteln, Hadoop mit dem Rest seines Softwareangebot zu verbinden. 5. Intel: Nach Intel sollte man 2014 Ausschau halten. Das Unternehmen versucht, seine Kernkompetenzen für die Verbesserung von Performance und CPU-Leistung einzusetzen. Das umfasst auch die Security, so Adrian. 6. MapR Technologies: Das Unternehmen konzentriert sich auf Performance und Enterprise-Eigenschaften. Außerdem wird es weiterhin seine Unterstützung für den direkten Zugriff auf das Netzwerkdateisystem hervorheben. Das heißt, dass weniger Daten verschoben werden sollen. 7. Pivotal Software: Adrian nennt Pivotal Software einen interessanten Akteur mit einer guten Perspektive. Das Unternehmen fokussiert sich darauf, wie Sensornetzwerke und In- Memory- sowie Echtzeitverarbeitung eine Firma verändern, sagt er abschließend. Seite 3 von 9

5 Big- Big- Data-Analytik Von Brien Posey In den letzten Jahren hat die zugenommen. Trotzdem haben viele Unternehmen entdeckt, dass ihre bestehende Data-Mining- und Analysetechniken nicht für den Umgang mit großen Datenmengen geeignet sind. Eine mögliche Lösung ist es, Hadoop-Cluster zu verwenden. Sie eignen sich aber nicht für jede Situation. Betrachten wir einige der Vor- und Nachteile von Hadoop-Clustern. Was sind Hadoop-Cluster? Ein Hadoop-Cluster ist eine Cluster-Sonderform, die speziell für die Speicherung und Analyse von einer großen Menge an unstrukturierten Daten entwickelt wurde. Ein Hadoop-Cluster ist im Wesentlichen ein Datenverarbeitungscluster, der die Datenanalyse-Arbeitsauslastung auf mehrere Clusterknoten verteilt, um die Daten parallel zu verarbeiten. Vorteile des Hadoop-Clusters-Aufbaus Der Hauptvorteil bei der Verwendung von Hadoop-Cluster ist, dass sie ideal geeignet sind um große Datenmengen zu analysieren. tendiert zu weit verbreiteten und weitgehend unstrukturierten Datenmengen. Hadoop ist gut geeignet, da es die Daten in Teilstücke partitionieren und die Teile bestimmte Cluster-Knoten für die Analyse zuweist. Die Daten müssen nicht einheitlich sein, da jedes Datenteil von einem separaten Prozess auf einem anderen Cluster-Knoten verarbeitet wird. Ein weiterer Vorteil von Hadoop-Cluster ist die Skalierbarkeit. Eines der Probleme großer Datenanalyse ist, dass ständig wächst. Darüber hinaus ist besonders nützlich, wenn es in Echtzeit analysiert oder zeitnah wird. Ein Hadoop-Cluster hilft sicherlich mit der parallelen Verarbeitung bei der Analyse-Geschwindigkeit, allerdings wächst das Volumen der zu analysierenden Daten. Die Cluster-Verarbeitungsleistung kann sich als unzureichend erweisen. Glücklicherweise ist es möglich, Hadoop-Cluster zu skalieren, indem zusätzliche Cluster hinzugefügt werden. Seite 4 von 9

6 Big- Ein dritter Vorteil von Hadoop-Clustern sind die Kosten, da diese eine sehr kostengünstige Lösung sein können. Es gibt zwei Hauptgründe, warum Hadoop-Cluster in der Regel günstig sind. Bei der erforderlichen Software handelt es sich um Open Source. Tatsächlich können Sie Apache Hadoop kostenlos herunterladen. Außerdem können die Kosten durch Standard- Hardware reduziert werden. Es ist möglich einen leistungsfähigen Hadoop- Cluster zu erstellen, ohne ein Vermögen für Server-Hardware auszugeben. Ein weiterer Vorteil von Hadoop-Clustern ist ihre Robustheit. Wenn ein Teil der Daten für die Analyse zu einem Knoten gesendet wird, werden die Daten auch auf andere Knoten im Cluster repliziert. Auf diese Weise sind bei einem Knotenausfall zusätzliche Kopien der Daten an anderen Stellen vorhanden und können analysiert werden. Das spricht gegen Hadoop-Cluster Trotz ihrer vielen Vorteile sind Hadoop-Cluster keine geeignete Lösung für alle Unternehmen, die Datenanalyse benötigen. Eine Firma mit relativ wenigen Daten könnte beispielsweise nicht von einem Hadoop-Cluster profitieren, auch wenn diese Daten eine intensive Analyse erfordern. Ein weiterer Nachteil besteht darin, dass die Cluster-Lösung auf der Idee basiert, dass Daten zerlegt und durch parallele Prozesse auf getrennten Cluster-Knoten analysiert werden. Wenn die Analyse für den Einsatz in einer parallelen Verarbeitungsumgebung nicht angepasst werden kann, ist ein Hadoop-Cluster nicht das richtige Werkzeug. Der größte Nachteil dürfte darin bestehen, dass eine deutliche Einarbeitungszeit mit dem Aufbau, dem Betrieb und der Unterstützung der Hadoop-Cluster notwendig ist. Sollten Sie den Aufbau eines Hadoop-Clusters erwägen? Die Antwort hängt davon ab, wie sich Ihre Datenanalyse-Bedürfnisse mit den Hadoop-Cluster-Fähigkeiten vereinbaren lassen. Wenn Sie nicht sicher sind, ob ein Hadoop-Cluster von Vorteil sein könnte, laden Sie Apache Hadoop herunter. Installieren Sie Hadoop testweise auf Ersatzhardware, um zu sehen, wie es funktioniert, bevor Sie einen Large-Scale-Cluster aufsetzen. Seite 5 von 9

7 Big- mit Hive, Mahout, HBase und Cassandra Von Jason Tee Software-Entwickler, die Architekturen für Big-Data-Lösungen entwerfen, kennen mit Sicherheit eine interessante Technologie. Sie umfasst SQL- Datenbanken, NoSQL-Datenbanken, unstrukturierte Daten, Dokumentorientierte Datastores und höchst aufwendige Berechnungen für Business- Analytik. Richtig geraten: Die Rede ist von Hadoop. Zugleich ist das Framework ein gemeinsamer Nenner für Giganten wie Amazon, Yahoo, AOL, Netflix, ebay, Microsoft, Google, Twitter und Facebook. Auch IBM ist mit von der Partie und fördert Hadoop für Enterprise-Analytik. Das Open- Source-Produkt ist so allgegenwärtig, dass man kaum glauben mag, dass es erst seit etwa fünf Jahren existiert. Die Zukunft von Hadoop Um zu verstehen, was sich in dieser Zeit getan hat, haben wir mit Chuck Lam gesprochen, dem Autor des Buches Hadoop in Action. Nach seinen Worten zeigt Hadoop keine Neigung, sich auf seinen Lorbeeren auszuruhen: Das gesamte Ökosystem hat sich definitiv weiterentwickelt und stark verändert. Jetzt gibt es sogar eine offizielle 1.0-Version. Noch wichtiger: Das zugrundeliegende Programmier-Modell für MapReduce wurde ebenfalls merklich überarbeitet. Im Allgemeinen sind diese vielen Änderungen von Vorteil. Die Weiterentwicklung hat das Framework einfacher zu benutzen und in großen Unternehmen einsetzbar gemacht. Themen wie Sicherheit, die bei risikoaversen Organisationen stets eine große Rolle spielen, wurden angegangen. Immer besser wird auch der ohnehin hohe Grad an Skalierbarkeit. Verteiltes Computing mit Hadoop bedeutet, dass Sie immer mehr Daten hinzufügen können, ohne dabei irgendwann ändern zu müssen, wie Sie das tun. Sie müssen keine Formate verändern, nicht an der Vergabe von Aufgaben herumschrauben und nicht neu vorgeben, welche Anwendungen dabei zum Einsatz kommen Sie fügen einfach weitere Knoten hinzu. Auch müssen Sie nicht wählerisch sein, welche Datentypen Sie speichern oder woher diese kommen. Schema-frei ist hier das Zauberwort. Die Fähigkeiten des Seite 6 von 9

8 Big- Frameworks für parallele Verarbeitung sorgen zudem für eine effizientere Nutzung von Storage auf Standard-Servern, so dass Unternehmen mehr Daten aufheben und nutzen können. Wenn irgendein Knoten ausfällt, ist das kein Problem das System macht einen Failover, bei dem keine Daten verloren gehen und die Performance nicht leidet. Ergänzende Technologien für Hadoop Hadoop-Lösungen sind heutzutage zudem flexibler und geben Unternehmen die Möglichkeit, mit mehr Arten von Daten mehr zu tun. Diese Bereicherung ergibt sich durch viele Begleitprojekte von Hadoop, zu denen Sprachen wie Pig und die folgenden skalierbaren Lösungen gehören: 1. Hive (Data-Warehousing) 2. Mahout (Maschinenlernen und Data-Mining) 3. HBase (strukturiertes Storage für große Tabellen) 4. Cassandra (Multi-Master-Datenbank) Natürlich funktioniert auch mit diesen Lösungen nicht immer alles reibungslos. Laut Lam hängen die größten Probleme mit Annahmen zusammen der Fehler liegt also nicht im System, sondern bei uns: Neue Technologie ist kein Allheilmittel für jedes Problem. So einfach diese NoSQL- Sachen sind, man muss das Problem, das man lösen will, trotzdem auf einer tiefen Ebene verstehen. Das kann bedeuten, dass Sie sich genauer mit Ihren Algorithmen beschäftigen müssen, statt einfach alles zu MapReduce abzuschieben und davon auszugehen, dass Hadoop die Skalierung schon hinbekommen wird. Die Muster der Datennutzung haben Einfluss auf die Art der Skalierung, vor allem wenn die Nutzung nicht einheitlich ist. In solchen Fällen hilft eine lineare Skalierung unter Umständen nicht. Auch hier liegt das Problem nicht bei Hadoop selbst. In den Augen von Lam sind die verfügbaren Werkzeuge reif genug für den Einsatz in Großunternehmen. Sichergestellt werden müsse nur, dass IT- Administratoren mit diesen Werkzeugen vertraut sind. Software-Architekten, die Hadoop einsetzen wollen, sollten außerdem wissen, wie sich die Technologie effektiv verwenden lässt. Seite 7 von 9

9 Big- Kostenlose Onlineressourcen für IT-Experten TechTarget publiziert qualifizierte Medieninhalte im IT-Bereich, die Ihren Informationsbedarf bei der Suche nach neuen IT-Produkten und Technologien decken und Ihr Unternehmen somit gezielt in der Strategieentwicklung unterstützen. Es ist unser Ziel, Ihnen durch die Bereitstellung von Onlineressourcen zu den aktuellsten Themen der IT- Branche die Kaufentscheidungen für IT-Produkte zu erleichtern und kostengünstiger zu gestalten. Unser Netzwerk an technologiespezifischen Webseiten erlaubt es Ihnen, auf eine der weltweit größten Onlinebibliotheken zum Thema IT zuzugreifen und anhand von unabhängigen Expertenmeinungen und Analysen, zahlreichen Whitepapern, Webcasts, Podcasts, Videos, virtuellen Messen und Forschungsberichten zu ausgewogeneren Kaufentscheidungen zu gelangen. Unsere Onlineressourcen berufen sich auf die umfangreichen Forschungsund Entwicklungskompetenzen führender Technologieanbieter und ermöglichen es Ihnen somit, Ihr Unternehmen für künftige Marktentwicklungen und herausforderungen zu rüsten. Unsere Live- Informationsveranstaltungen und virtuellen Seminare geben Ihnen die Möglichkeit, Ihre täglichen individuellen Herausforderungen im Bereich IT mit herstellerunabhängigen Experten zu diskutieren. Desweiteren können Sie in unserem Social Network, dem IT Knowledge Exchange, praxisnahe Erfahrungsberichte mit Fachkollegen und Experten in Echtzeit austauschen. Was macht TechTarget so einzigartig? Bei TechTarget steht die Unternehmens-IT im Mittelpunkt. Unser Redaktions- und Autorenteam und unser breites Netzwerk an Industrieexperten bietet Ihnen Zugriff auf die neuesten Entwicklungen und relevantesten Themen der Branche. Seite 8 von 9

10 Big- TechTarget liefert klare und überzeugende e und umsetzbare Informationen für die Profis und Entscheidungsträger der IT-Branche. Wir nutzen die Schnelligkeit und Unmittelbarkeit des Internets um Ihnen in realen und virtuellen Kommunikationsräumen hervorragende Networking- Möglichkeiten mit Fachkollegen zur Verfügung zu stellen. Weitere deutsche TechTarget Webseiten: Seite 9 von 9

Die Ergebnisse der IT-Prioritäten Umfrage 2014

Die Ergebnisse der IT-Prioritäten Umfrage 2014 IT-Prioritäten Umfrage PIK/FOTOLIA Die Ergebnisse der IT-Prioritäten Umfrage 2014 So So Cloud- TechTarget hat über 1000 IT-Profis in Europa zur ihren Plänen für das Jahr 2014 befragt. Unter anderem beschäftigt

Mehr

Big Data Mythen und Fakten

Big Data Mythen und Fakten Big Data Mythen und Fakten Mario Meir-Huber Research Analyst, IDC Copyright IDC. Reproduction is forbidden unless authorized. All rights reserved. About me Research Analyst @ IDC Author verschiedener IT-Fachbücher

Mehr

Die Herausforderungen rund um die Ausgliederung von Unternehmensanwendungen. Mit freundlicher Unterstützung von: HP

Die Herausforderungen rund um die Ausgliederung von Unternehmensanwendungen. Mit freundlicher Unterstützung von: HP Die Herausforderungen rund um die ungen in die Cloud Mit freundlicher Unterstützung von: HP Sprecher: Luc Vogeleer, Leiter: Anwendungstransformation für Cloud-Lösungen, HP Europe Moderiert von: Bryan Glick,

Mehr

Windows Server 2012: Die wichtigsten Neuerungen

Windows Server 2012: Die wichtigsten Neuerungen : Die wichtigsten : Die wichtigsten wartet mit einer Fülle an auf. In diesem E-Guide erfahren Sie mehr über die wichtigsten fünf im Bereich der Gruppenrichtlinien von einschließlich der einfacheren Statusberichte,

Mehr

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar!

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar! Clouds Wolkig bis Heiter Erwartungen der Nutzer Er ist verwöhnt! Verfügbarkeit Viele Anwendungen Intuitive Interfaces Hohe Leistung Er ist nicht dankbar! Mehr! Mehr! Mehr! Moore 1 Erwartungen der Entwickler

Mehr

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN CLOUD-ENTWICKLUNG: BESTE METHODEN 1 Cloud-basierte Lösungen sind auf dem IT-Markt immer weiter verbreitet und werden von immer mehr

Mehr

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2 Seminar Cloud Data Management WS09/10 Tabelle1 Tabelle2 1 Einführung DBMS in der Cloud Vergleich verschiedener DBMS Beispiele Microsoft Azure Amazon RDS Amazon EC2 Relational Databases AMIs Was gibt es

Mehr

Hadoop aus IT-Operations Sicht Teil 1 Hadoop-Grundlagen

Hadoop aus IT-Operations Sicht Teil 1 Hadoop-Grundlagen Hadoop aus IT-Operations Sicht Teil 1 Hadoop-Grundlagen Brownbag am Freitag, den 26.07.2013 Daniel Bäurer inovex GmbH Systems Engineer Wir nutzen Technologien, um unsere Kunden glücklich zu machen. Und

Mehr

Big Data Informationen neu gelebt

Big Data Informationen neu gelebt Seminarunterlage Version: 1.01 Copyright Version 1.01 vom 21. Mai 2015 Dieses Dokument wird durch die veröffentlicht. Copyright. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen

Mehr

Review Freelancer-Workshop: Fit für Big Data. Mittwoch, 29.04.2015 in Hamburg

Review Freelancer-Workshop: Fit für Big Data. Mittwoch, 29.04.2015 in Hamburg Review Freelancer-Workshop: Fit für Big Data Mittwoch, 29.04.2015 in Hamburg Am Mittwoch, den 29.04.2015, hatten wir von productive-data in Zusammenarbeit mit unserem langjährigen Partner Informatica zu

Mehr

Datenanalysen in Echtzeit: SAP HANA im Überblick

Datenanalysen in Echtzeit: SAP HANA im Überblick Datenanalysen in Echtzeit: Die SAP high-performance analytic appliance (HANA) ist eine Data-Warehouse-Anwendung, die in der Lage ist, große Mengen an detaillierten Daten zur Analyse des Geschäftsbetriebs

Mehr

SQL on Hadoop für praktikables BI auf Big Data.! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh

SQL on Hadoop für praktikables BI auf Big Data.! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh SQL on Hadoop für praktikables BI auf Big Data! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh War nicht BigData das gleiche NoSQL? 2 Wie viele SQL Lösungen für Hadoop gibt es mittlerweile? 3 ! No SQL!?

Mehr

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zettabyte CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zetabyte: analytische Datenbanken Die Datenflut. Analytische Datenbanken: Was ist neu? Analytische Datenbanken:

Mehr

Alles über Cloud-Storage Die besten Tipps und Best Practices zur Nutzung der Cloud: Storage, Recovery und Kostenanalyse

Alles über Cloud-Storage Die besten Tipps und Best Practices zur Nutzung der Cloud: Storage, Recovery und Kostenanalyse Die besten Tipps und Best Practices zur Nutzung der Cloud: Storage, Recovery und Kostenanalyse von Lesen Sie in diesem E-Guide alles, was Sie über die Cloud heute wissen müssen. Hier finden Sie Informationen

Mehr

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick:

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Red Hat Storage Server Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Offene Software Lösung für Storage Ansprache über einen globalen Namensraum Betrachtet Storage als einen virtualisierten

Mehr

Einführung in Hadoop

Einführung in Hadoop Einführung in Hadoop Inhalt / Lern-Ziele Übersicht: Basis-Architektur von Hadoop Einführung in HDFS Einführung in MapReduce Ausblick: Hadoop Ökosystem Optimierungen Versionen 10.02.2012 Prof. Dr. Christian

Mehr

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension

Mehr

Der Business Case für In- Memory Technologie

Der Business Case für In- Memory Technologie Der Business Case für In- Memory Die Vorteile von In-Memory-Computing sind offensichtlich: Diese n ermöglichen es großen sowie kleinen Unternehmen, gewaltige Datenmengen nahezu in Echtzeit zu bearbeiten

Mehr

Big Data Plattformen für polystrukturierte Daten neue Chancen und Herausforderungen

Big Data Plattformen für polystrukturierte Daten neue Chancen und Herausforderungen Big Data Plattformen für polystrukturierte Daten neue Chancen und Herausforderungen Oracle DWH-Konferenz 21. März 2012 Dr. Carsten Bange Gründer & Geschäftsführer BARC Big Data bietet Methoden und Technologien

Mehr

Apache Lucene. Mach s wie Google! Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache.org

Apache Lucene. Mach s wie Google! Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache.org Apache Lucene Mach s wie Google! Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache.org 1 Apache Apache Software Foundation Software free of charge Apache Software

Mehr

Analytics in der Cloud. Das Beispiel Microsoft Azure

Analytics in der Cloud. Das Beispiel Microsoft Azure Analytics in der Cloud Das Beispiel Microsoft Azure Warum überhaupt Cloud Computing? Ein kleiner Blick in den Markt Microsoft : hat sein Geschäftsmodell komplett umgestellt vom Lizenzgeschäft auf Devices

Mehr

E-Guide EINSATZ VON CLOUD-COMPUTING IN UNTERNEHMEN UND MÖGLICHE ALTERNATIVEN

E-Guide EINSATZ VON CLOUD-COMPUTING IN UNTERNEHMEN UND MÖGLICHE ALTERNATIVEN E-Guide EINSATZ VON CLOUD-COMPUTING IN UNTERNEHMEN UND MÖGLICHE ALTERNATIVEN C loud-marktführer Amazon führt die in eine neue Richtung, wobei ihre Cloud-Computing-Strategie PaaS (Platform as a Service)

Mehr

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen 01000111101001110111001100110110011001 Volumen 10 x Steigerung des Datenvolumens alle fünf Jahre Big Data Entstehung

Mehr

on Azure mit HDInsight & Script Ac2ons

on Azure mit HDInsight & Script Ac2ons Willkommen beim #GAB 2015! on Azure mit HDInsight & Script Ac2ons Lokale Sponsoren: HansPeter Grahsl Netconomy Entwickler & Berater FH CAMPUS 02 Twi9er: @hpgrahsl Überblick Inhalte Was ist HDInsight? Wozu

Mehr

Prof. Dr.-Ing. Rainer Schmidt 1

Prof. Dr.-Ing. Rainer Schmidt 1 Prof. Dr.-Ing. Rainer Schmidt 1 Business Analytics und Big Data sind Thema vieler Veröffentlichungen. Big Data wird immer häufiger bei Google als Suchbegriff verwendet. Prof. Dr.-Ing. Rainer Schmidt 2

Mehr

Big Data Hype und Wirklichkeit Bringtmehrauchmehr?

Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Günther Stürner, Vice President Sales Consulting 1 Copyright 2011, Oracle and/or its affiliates. All rights Überschrift 2 Copyright 2011, Oracle and/or

Mehr

Big Data in a Nutshell. Dr. Olaf Flebbe of ät oflebbe.de

Big Data in a Nutshell. Dr. Olaf Flebbe of ät oflebbe.de Big Data in a Nutshell Dr. Olaf Flebbe of ät oflebbe.de Zu mir Bigdata Projekt, benutzt Apache Bigtop Linux seit Anfang vor Minix/ATARI Linuxtag 2001? Promoviert in Computational Physics in Tü Seit Jan

Mehr

Apache Hadoop. Distribute your data and your application. Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache.

Apache Hadoop. Distribute your data and your application. Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache. Apache Hadoop Distribute your data and your application Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache.org Apache The Apache Software Foundation Community und

Mehr

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht Big-Data-Technologien - Überblick - Quelle: http://www.ingenieur.de/panorama/fussball-wm-in-brasilien/elektronischer-fussball-smartphone-app-helfen-training Big-Data-Anwendungen im Unternehmen Logistik

Mehr

Big Data. Prof. Robert Jäschke Forschungszentrum L3S Leibniz Universität Hannover

Big Data. Prof. Robert Jäschke Forschungszentrum L3S Leibniz Universität Hannover Big Data Prof. Robert Jäschke Forschungszentrum L3S Leibniz Universität Hannover Agenda Was ist Big Data? Parallele Programmierung Map/Reduce Der Big Data Zoo 2 3Vs oder: Was ist Big Data? Deutsche Telekom:

Mehr

Big Data in der Forschung

Big Data in der Forschung Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die

Mehr

E-Guide DAS DATA CENTER INFRASTRUCTURE MANAGEMENT DER ZUKUNFT

E-Guide DAS DATA CENTER INFRASTRUCTURE MANAGEMENT DER ZUKUNFT E-Guide DAS DATA CENTER INFRASTRUCTURE MANAGEMENT DER ZUKUNFT D ie Rechenzentrumsexperten gehen davon aus, dass die Cloud-Nutzung weiter wachsen wird und bis zum Jahr 2025 rund zwei Drittel der Rechenzentrumsleistungen

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 0 Es TOP 10 DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 wird ein wichtiges Jahr für BIG (Business Intelligence Growth) 2012 war ein fantastisches Jahr für Business Intelligence! Die biedere alte

Mehr

Ab in den Himmel: Was kommt jenseits der Cloud? 20 R. Altenhöner Ab in den Himmel: Was kommt jenseits der Cloud? 04.6.2014 Bibliothekartag 2014

Ab in den Himmel: Was kommt jenseits der Cloud? 20 R. Altenhöner Ab in den Himmel: Was kommt jenseits der Cloud? 04.6.2014 Bibliothekartag 2014 Ab in den Himmel: Was kommt jenseits der Cloud? 1 20 R. Altenhöner Ab in den Himmel: Was kommt jenseits der Cloud? 04.6.2014 Bibliothekartag 2014 Inhalt 1. Einleitung / Motivation 2. Cloud ein bisschen

Mehr

Drei Argumente für ein Upgrade auf Exchange 2013

Drei Argumente für ein Upgrade auf Exchange 2013 eguide Upgrade auf, warum Unternehmen mit der Migration zögern und Dateien verhindern VEGE/FOTOLIA Upgrade auf zögern Um eine praktisch unbegrenzte Speicher- Kapazität zu erreichen, müssen Unternehmen

Mehr

WEBINAR@LUNCHTIME THEMA: SAS TOOLS FÜR DIE DATENVERARBEITUNG IN HADOOP ODER WIE REITET MAN ELEFANTEN?" HANS-JOACHIM EDERT

WEBINAR@LUNCHTIME THEMA: SAS TOOLS FÜR DIE DATENVERARBEITUNG IN HADOOP ODER WIE REITET MAN ELEFANTEN? HANS-JOACHIM EDERT WEBINAR@LUNCHTIME THEMA: SAS TOOLS FÜR DIE DATENVERARBEITUNG IN HADOOP ODER WIE REITET MAN ELEFANTEN?" Copyr i g ht 2012, SAS Ins titut e Inc. All rights res er ve d. HANS-JOACHIM EDERT EBINAR@LUNCHTIME

Mehr

Zend Server Cluster Manager

Zend Server Cluster Manager Zend Server Cluster Manager Jan Burkl Zend Technologies Wer bin ich? Jan Burkl jan.burkl@zend.com PHP Entwickler seit 2001 Projektarbeit Bei Zend seit 2006 System Engineer Zend Certified Engineer PHP 5

Mehr

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired make connections share ideas be inspired Data Guido Oswald Solution Architect @SAS Switzerland BIG Data.. Wer? BIG Data.. Wer? Wikipedia sagt: Als Big Data werden besonders große Datenmengen bezeichnet,

Mehr

Der Cloud-Dienst Windows Azure

Der Cloud-Dienst Windows Azure Der Cloud-Dienst Windows Azure Master-Seminar Cloud Computing Wintersemester 2013/2014 Sven Friedrichs 07.02.2014 Sven Friedrichs Der Cloud-Dienst Windows Azure 2 Gliederung Einleitung Aufbau und Angebot

Mehr

25.09.2014. Zeit bedeutet eine Abwägung von Skalierbarkeit und Konsistenz

25.09.2014. Zeit bedeutet eine Abwägung von Skalierbarkeit und Konsistenz 1 2 Dies ist ein Vortrag über Zeit in verteilten Anwendungen Wir betrachten die diskrete "Anwendungszeit" in der nebenläufige Aktivitäten auftreten Aktivitäten in einer hochgradig skalierbaren (verteilten)

Mehr

Was darf das Grid kosten?

Was darf das Grid kosten? Was darf das Grid kosten? Dr. Marcel Kunze Steinbuch Centre for Computing Abteilung Integration und Virtualisierung Die Kooperation von Darf das Grid was kosten? Infrastruktur: Geschäftsmodell oder Sponsoring?

Mehr

Cloud-Computing - Überblick

Cloud-Computing - Überblick Cloud-Computing - Überblick alois.schuette@h-da.de Alois Schütte 24. November 2014 1 / 20 Inhaltsverzeichnis 1 Was ist Cloud-Computing Warum beschäftigt man sich mit Cloud Computing? 2 Aufbau der Veranstaltung

Mehr

Hybride Cloud Datacenters

Hybride Cloud Datacenters Hybride Cloud Datacenters Enterprise und KMU Kunden Daniel Jossen Geschäftsführer (CEO) dipl. Ing. Informatik FH, MAS IT Network Amanox Solutions Unsere Vision Wir planen und implementieren für unsere

Mehr

Managed Cloud Services

Managed Cloud Services Managed Cloud Services Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Cloud Services

Mehr

Oracle Datenbank: Chancen und Nutzen für den Mittelstand

Oracle Datenbank: Chancen und Nutzen für den Mittelstand Oracle Datenbank: Chancen und Nutzen für den Mittelstand DIE BELIEBTESTE DATENBANK DER WELT DESIGNT FÜR DIE CLOUD Das Datenmanagement war für schnell wachsende Unternehmen schon immer eine große Herausforderung.

Mehr

vfabric-daten Big Data Schnell und flexibel

vfabric-daten Big Data Schnell und flexibel vfabric-daten Big Data Schnell und flexibel September 2012 2012 VMware Inc. All rights reserved Im Mittelpunkt: Daten Jeden Morgen wache ich auf und frage mich: Wie kann ich den Datenfluss optimieren,

Mehr

Seminar WS 2012/13. S. Chaudhuri et al, CACM, Aug. 2011. Parallel DBS vs. Open Platforms for Big Data, e.g. HaDoop Near-Realtime OLAP

Seminar WS 2012/13. S. Chaudhuri et al, CACM, Aug. 2011. Parallel DBS vs. Open Platforms for Big Data, e.g. HaDoop Near-Realtime OLAP Seminar WS 2012/13 S. Chaudhuri et al, CACM, Aug. 2011 Parallel DBS vs. Open Platforms for Big Data, e.g. HaDoop Near-Realtime OLAP 2 Vorkonfigurierte, komplette Data Warehouse-Installation Mehrere Server,

Mehr

Zuerst zu Open Source wechseln

Zuerst zu Open Source wechseln Zuerst zu Open Source wechseln Zuerst zu Open Source wechseln Inhaltsverzeichnis Zuerst zu Open Source wechseln... 3 In die Mitte.... 4 Veränderungen in der Wirtschaftlichkeit der IT.... 6 2 Zuerst zu

Mehr

Storage-Trends am LRZ. Dr. Christoph Biardzki

Storage-Trends am LRZ. Dr. Christoph Biardzki Storage-Trends am LRZ Dr. Christoph Biardzki 1 Über das Leibniz-Rechenzentrum (LRZ) Seit 50 Jahren Rechenzentrum der Bayerischen Akademie der Wissenschaften IT-Dienstleister für Münchner Universitäten

Mehr

EMC. Data Lake Foundation

EMC. Data Lake Foundation EMC Data Lake Foundation 180 Wachstum unstrukturierter Daten 75% 78% 80% 71 EB 106 EB 133 EB Weltweit gelieferte Gesamtkapazität Unstrukturierte Daten Quelle März 2014, IDC Structured vs. Unstructured

Mehr

Symbiose hybrider Architekturen im Zeitalter digitaler Transformation. Hannover, 18.03.2015

Symbiose hybrider Architekturen im Zeitalter digitaler Transformation. Hannover, 18.03.2015 Symbiose hybrider Architekturen im Zeitalter digitaler Transformation Hannover, 18.03.2015 Business Application Research Center (BARC) B (Analystengruppe Europas führendes IT-Analysten- und -Beratungshaus

Mehr

Cloud Computing für die öffentliche Hand

Cloud Computing für die öffentliche Hand Hintergrundinformationen Cloud Computing für die öffentliche Hand Die IT-Verantwortlichen in allen Bereichen der öffentlichen Verwaltung Bund, Länder und Kommunen sehen sich den gleichen drei Herausforderungen

Mehr

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15 9.30 10.15 Kaffee & Registrierung 10.15 10.45 Begrüßung & aktuelle Entwicklungen bei QUNIS 10.45 11.15 11.15 11.45 Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics

Mehr

Pavlo Baron. Big Data. für IT-Entscheider. Riesige Datenmengen. und moderne Technologien. gewinnbringend nutzen HANSER

Pavlo Baron. Big Data. für IT-Entscheider. Riesige Datenmengen. und moderne Technologien. gewinnbringend nutzen HANSER Pavlo Baron Big Data für IT-Entscheider Riesige Datenmengen und moderne Technologien gewinnbringend nutzen HANSER Inhalt Vorwort XI 1 Management Summary 1 2 Was? 7 2.1 Mein klassisches Business ist konkurrenzlos,

Mehr

Prozessoptimierung in der Markt- und Medienforschung bei der Deutschen Welle (DW) mit Big Data Technologien. Berlin, Mai 2013

Prozessoptimierung in der Markt- und Medienforschung bei der Deutschen Welle (DW) mit Big Data Technologien. Berlin, Mai 2013 Prozessoptimierung in der Markt- und Medienforschung bei der Deutschen Welle (DW) mit Big Data Technologien Berlin, Mai 2013 The unbelievable Machine Company? 06.05.13 The unbelievable Machine Company

Mehr

Hadoop-as-a-Service (HDaaS)

Hadoop-as-a-Service (HDaaS) Hadoop-as-a-Service (HDaaS) Flexible und skalierbare Referenzarchitektur Arnold Müller freier IT Mitarbeiter und Geschäftsführer Lena Frank Systems Engineer @ EMC Marius Lohr Systems Engineer @ EMC Fallbeispiel:

Mehr

PROFI UND NUTANIX. Portfolioerweiterung im Software Defined Data Center

PROFI UND NUTANIX. Portfolioerweiterung im Software Defined Data Center PROFI UND NUTANIX Portfolioerweiterung im Software Defined Data Center IDC geht davon aus, dass Software-basierter Speicher letztendlich eine wichtige Rolle in jedem Data Center spielen wird entweder als

Mehr

SQL- & NoSQL-Datenbanken - Speichern und Analysen von großen Datenmengen

SQL- & NoSQL-Datenbanken - Speichern und Analysen von großen Datenmengen SQL- & NoSQL-Datenbanken - Speichern und Analysen von großen Datenmengen Lennart Leist Inhaltsverzeichnis 1 Einführung 2 1.1 Aufgaben einer Datenbank...................... 2 1.2 Geschichtliche Entwicklung

Mehr

Big Data Alter Wein in neuen Schläuchen? 27.11.2013 Josef Schmid M.A. Dynelytics AG

Big Data Alter Wein in neuen Schläuchen? 27.11.2013 Josef Schmid M.A. Dynelytics AG Big Data Alter Wein in neuen Schläuchen? 27.11.2013 Josef Schmid M.A. Dynelytics AG 2 Big Data Gartner prognostiziert, dass Unternehmen im laufenden Jahr für IT-Lösungen im Big-Data- Bereich 34 Milliarden

Mehr

It's all in the Cloud! Cloud Computing Grundlagen

It's all in the Cloud! Cloud Computing Grundlagen It's all in the Cloud! Cloud Computing Grundlagen Folie: 1/25 Agenda Einleitung - Cloud Computing Begriffe Überblick - Wer bietet was? Der Weg zur Private Cloud Einblick - RRZK und Cloud Computing Anmerkung

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

Lehrgebiet Informationssysteme

Lehrgebiet Informationssysteme Lehrgebiet AG Datenbanken und (Prof. Michel, Prof. Härder) AG Heterogene (Prof. Deßloch) http://wwwlgis.informatik.uni-kl.de/ Was sind? Computergestützte Programmsysteme, die Informationen erfassen, dauerhaft

Mehr

Ratgeber Integration von Big Data

Ratgeber Integration von Big Data SEPTEMBER 2013 Ratgeber Integration von Big Data Gesponsert von Inhalt Einführung 1 Herausforderungen der Big-Data-Integration: Neues und Altes 1 Voraussetzungen für die Big-Data-Integration 3 Bevorzugte

Mehr

Software as a Service, Cloud Computing und aktuelle Entwicklungen Seminarvorbesprechung

Software as a Service, Cloud Computing und aktuelle Entwicklungen Seminarvorbesprechung Software as a Service, Cloud Computing und aktuelle Entwicklungen Seminarvorbesprechung A. Göbel, Prof. K. Küspert Friedrich-Schiller-Universität Fakultät für Mathematik und Informatik Lehrstuhl für Datenbanken

Mehr

DATA WAREHOUSE. Big Data Alfred Schlaucher, Oracle

DATA WAREHOUSE. Big Data Alfred Schlaucher, Oracle DATA WAREHOUSE Big Data Alfred Schlaucher, Oracle Scale up Unternehmensdaten zusammenfassen Noch mehr Informationen aus Unternehmens- Daten ziehen! Datenmengen, Performance und Kosten Daten als Geschäftsmodell

Mehr

Apache HBase. A BigTable Column Store on top of Hadoop

Apache HBase. A BigTable Column Store on top of Hadoop Apache HBase A BigTable Column Store on top of Hadoop Ich bin... Mitch Köhler Selbstständig seit 2010 Tätig als Softwareentwickler Softwarearchitekt Student an der OVGU seit Oktober 2011 Schwerpunkte Client/Server,

Mehr

Persönliche Einladung. Zur IT Managers Lounge am 4. November 2009 in Köln, Hotel im Wasserturm.

Persönliche Einladung. Zur IT Managers Lounge am 4. November 2009 in Köln, Hotel im Wasserturm. Persönliche Einladung. Zur IT Managers Lounge am 4. November 2009 in Köln, Hotel im Wasserturm. IT Managers Lounge präsentiert: Top-Trend Cloud Computing. Flexibilität, Dynamik und eine schnelle Reaktionsfähigkeit

Mehr

Dateisysteme und Datenverwaltung in der Cloud

Dateisysteme und Datenverwaltung in der Cloud Dateisysteme und Datenverwaltung in der Cloud Sebastian Fischer Master-Seminar Cloud Computing - WS 2013/14 Institut für Telematik, Universität zu Lübeck Dateisysteme und Datenverwaltung in der Cloud 1

Mehr

BIG DATA HYPE ODER CHANCE

BIG DATA HYPE ODER CHANCE BIG DATA HYPE ODER CHANCE 1 Fuchs Dominik 16.05.2014 Fahrplan 2 Begriff Big Data Die 3 V s Fallbeispiel Google Was? Wie? Womit? Fazit & Ausblick in die Zukunft Der Begriff Big Data 3 Datenmengen, die zu

Mehr

TRACK II Datenmanagement Strategien & Big Data Speicherkonzepte. TRACK I Big Data Analytics & Self Service BI

TRACK II Datenmanagement Strategien & Big Data Speicherkonzepte. TRACK I Big Data Analytics & Self Service BI 9.30 10.15 Kaffee & Registrierung 10.15 10.45 Begrüßung & aktuelle Entwicklungen bei QUNIS 10.45 11.15 11.15 11.45 Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics

Mehr

Big Data in Azure. Ein Beispiel mit HD Insight. Ralf Stemmer

Big Data in Azure. Ein Beispiel mit HD Insight. Ralf Stemmer Big in Azure Ein Beispiel mit HD Insight Ralf Stemmer Agenda owas ist Big? Was ist HD Insight? owelche Probleme kann man damit lösen? odemo Was ist Big? Was ist HD Insight? Datenexplosion - Rasanter Zuwachs

Mehr

Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie

Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie BIG DATA Future Opportunities and Challanges in the German Industry Zusammenfassung Die Menge der verfügbaren

Mehr

Business Analytics in der Big Data-Welt

Business Analytics in der Big Data-Welt Business Analytics in der Big Data-Welt Frankfurt, Juni 2014 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust Big Data-Analytik "The way I look at big data analytics is it's not a technology,

Mehr

Kooperativer Speicher: Schwächen und Gegenmaßnahmen

Kooperativer Speicher: Schwächen und Gegenmaßnahmen Kooperativer Speicher: Schwächen und Gegenmaßnahmen Cooperative storage: weaknesses and countermeasures Lutz Behnke 2. Dezember 2005 2005 Lutz Behnke 1 /home/sage/texte/haw/master/seminar/coop_storage_failure.sxi

Mehr

Infografik Business Intelligence

Infografik Business Intelligence Infografik Business Intelligence Top 5 Ziele 1 Top 5 Probleme 3 Im Geschäft bleiben 77% Komplexität 28,6% Vertrauen in Zahlen sicherstellen 76% Anforderungsdefinitionen 24,9% Wirtschaflicher Ressourceneinsatz

Mehr

NoSQL. Was Architekten beachten sollten. Dr. Halil-Cem Gürsoy adesso AG. Architekturtag @ SEACON 2012 Hamburg

NoSQL. Was Architekten beachten sollten. Dr. Halil-Cem Gürsoy adesso AG. Architekturtag @ SEACON 2012 Hamburg NoSQL Was Architekten beachten sollten Dr. Halil-Cem Gürsoy adesso AG Architekturtag @ SEACON 2012 Hamburg 06.06.2012 Agenda Ein Blick in die Welt der RDBMS Klassifizierung von NoSQL-Datenbanken Gemeinsamkeiten

Mehr

Was ist Windows Azure? (Stand Juni 2012)

Was ist Windows Azure? (Stand Juni 2012) Was ist Windows Azure? (Stand Juni 2012) Windows Azure Microsofts Cloud Plattform zu Erstellung, Betrieb und Skalierung eigener Cloud-basierter Anwendungen Cloud Services Laufzeitumgebung, Speicher, Datenbank,

Mehr

Der starke Partner für Ihre IT-Umgebung.

Der starke Partner für Ihre IT-Umgebung. Der starke Partner für Ihre IT-Umgebung. Leistungsfähig. Verlässlich. Mittelständisch. www.michael-wessel.de IT-Service für den Mittelstand Leidenschaft und Erfahrung für Ihren Erfolg. Von der Analyse

Mehr

Big Data Vom Hype zum Geschäftsnutzen

Big Data Vom Hype zum Geschäftsnutzen Big Data Vom Hype zum Geschäftsnutzen IBM IM Forum, Berlin, 16.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Hype 15.04.2013 BARC 2013 2 1 Interesse an Big Data Nature 09-2008 Economist 03-2010

Mehr

ACT! Highlights und Features

ACT! Highlights und Features ACT! Highlights und Features Agenda Warum ACT!? ACT! 2010 Versionen im Überblick ACT! 2010 Überblick über die Neuerungen ACT! einfacher als der Wettbewerb SQL-Server-Unterstützung Zusammenfassung 2 Warum

Mehr

Cloud Computing. D o m i n i c R e u t e r 19.07.2011. Softwarearchitekturen

Cloud Computing. D o m i n i c R e u t e r 19.07.2011. Softwarearchitekturen Cloud Computing D o m i n i c R e u t e r 19.07.2011 1 Seminar: Dozent: Softwarearchitekturen Benedikt Meurer GLIEDERUNG Grundlagen Servervirtualisierung Netzwerkvirtualisierung Storagevirtualisierung

Mehr

System Center 2012 R2 und Microsoft Azure. Marc Grote

System Center 2012 R2 und Microsoft Azure. Marc Grote System Center 2012 R2 und Microsoft Azure Marc Grote Agenda Ueberblick Microsoft System Center 2012 R2 Ueberblick Microsoft Azure Windows Backup - Azure Integration DPM 2012 R2 - Azure Integration App

Mehr

Aufbau von Cloud-Infrastrukturen mit Eucalyptus

Aufbau von Cloud-Infrastrukturen mit Eucalyptus Michael Stapelberg Cloud-Computing Seminar Universität Heidelberg SS2009 1/34 Aufbau von Cloud-Infrastrukturen mit Eucalyptus Michael Stapelberg Universität Heidelberg Stapelberg@stud.uni-heidelberg.de

Mehr

SAS Analytics bringt SAP HANA in den Fachbereich

SAS Analytics bringt SAP HANA in den Fachbereich Pressemitteilung Hamburg, 08. November 2013 SAS Analytics bringt SAP HANA in den Fachbereich Ergonomie kombiniert mit Leistungsfähigkeit: die BI-Experten der accantec group geben der neuen Partnerschaft

Mehr

Der Weg zum datengetriebenen Unternehmen

Der Weg zum datengetriebenen Unternehmen Der Weg zum datengetriebenen Unternehmen Big Data als Chance und Herausforderung mainit Keynote 25.9.2014 Alexander Kagoshima Alexander Kagoshima Data Scientist Big Data Trend Wachsende Daten 40.000 Quelle:

Mehr

Mehr Mobilität. Digitale Generation. Vielzahl an Geräten. Schnelllebigkeit. Arbeit und Freizeit verschwimmen. Daten Explosion

Mehr Mobilität. Digitale Generation. Vielzahl an Geräten. Schnelllebigkeit. Arbeit und Freizeit verschwimmen. Daten Explosion Arbeit und Freizeit verschwimmen Mehr Mobilität Digitale Generation Vielzahl an Geräten Daten Explosion Wandel in der IT Schnelllebigkeit Überblick App Services Computing Daten-Dienste Netzwerk Automatisiert

Mehr

Next Generation Cloud

Next Generation Cloud Next Generation Cloud Building Blocks In Zukunft wird es darum gehen, aus der Summe der Teile Anwendungen (Apps) zu generieren, die Mehrwerte zu schaffen App besteht aus Integration von > Funktionen, z.b.

Mehr

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit Big Data und Business Analytics für Kunden und Unternehmen Umfangreiche und ständig anwachsende Datenvolumen verändern die Art und Weise, wie in zahlreichen Branchen Geschäfte abgewickelt werden. Da immer

Mehr

Buildfrei skalieren für Big Data mit Z2

Buildfrei skalieren für Big Data mit Z2 Buildfrei skalieren für Big Data mit Z2 Henning Blohm ZFabrik Software KG 5.6.2013 1 Teil 1: Buildfrei entwickeln und skalieren Teil 2: Big Data, Cloud, und wie es zusammenpasst 2 1. Teil BUILDFREI ENTWICKELN

Mehr

Prototypvortrag. Exploiting Cloud and Infrastructure as a Service (IaaS) Solutions for Online Game Service Provisioning. Projektseminar WS 2009/10

Prototypvortrag. Exploiting Cloud and Infrastructure as a Service (IaaS) Solutions for Online Game Service Provisioning. Projektseminar WS 2009/10 Prototypvortrag Exploiting Cloud and Infrastructure as a Service (IaaS) Solutions for Online Game Service Provisioning Projektseminar WS 2009/10 Eugen Fot, Sebastian Kenter, Michael Surmann AG Parallele

Mehr

vsphere vs. HyperV ein Vergleich aus Sicht eines VMware Partners interface:systems

vsphere vs. HyperV ein Vergleich aus Sicht eines VMware Partners interface:systems vsphere vs. HyperV ein Vergleich aus Sicht eines VMware Partners interface:systems Mike Schubert Senior Consultant Virtualisierung & Storage Frank Friebe Consultant Microsoft mike.schubert@interface-systems.de

Mehr

Apache Hadoop Anwendungsmuster

Apache Hadoop Anwendungsmuster Community-orientiert. Apache Hadoop Apache Hadoop Anwendungsmuster April 2013 2013 Hortonworks Inc. http://www.hortonworks.com Big Data: Apache Hadoop auf den Punkt gebracht Um den Begriff Big Data wird

Mehr

SaaS-Referenzarchitektur. iico-2013-berlin

SaaS-Referenzarchitektur. iico-2013-berlin SaaS-Referenzarchitektur iico-2013-berlin Referent Ertan Özdil Founder / CEO / Shareholder weclapp die Anforderungen 1.000.000 registrierte User 3.000 gleichzeitig aktive user Höchste Performance Hohe

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

Session Storage im Zend Server Cluster Manager

Session Storage im Zend Server Cluster Manager Session Storage im Zend Server Cluster Manager Jan Burkl System Engineer, Zend Technologies Agenda Einführung in Zend Server und ZSCM Überblick über PHP Sessions Zend Session Clustering Session Hochverfügbarkeit

Mehr

vinsight BIG DATA Solution

vinsight BIG DATA Solution vinsight BIG DATA Solution München, November 2014 BIG DATA LÖSUNG VINSIGHT Datensilos erschweren eine einheitliche Sicht auf die Daten...... und machen diese teilweise unmöglich einzelne individuelle Konnektoren,

Mehr

Repeatable Benchmarking Mahout

Repeatable Benchmarking Mahout Studienarbeitsexposé Repeatable Benchmarking Mahout Entwicklung eines Lasttest-Rahmenwerkes für Apache Mahout von: Oliver Fischer Institut für Informatik Humbold-Universität zu Berlin Matrikelnummer: 19

Mehr

June 2015. Automic Hadoop Agent. Data Automation - Hadoop Integration

June 2015. Automic Hadoop Agent. Data Automation - Hadoop Integration June 2015 Automic Hadoop Agent Data Automation - Hadoop Integration + Aufbau der Hadoop Anbindung + Was ist eigentlich ist MapReduce? + Welches sind die Stärken von Hadoop + Welches sind die Schwächen

Mehr