EMC Data Lake Foundation 180
Wachstum unstrukturierter Daten 75% 78% 80% 71 EB 106 EB 133 EB Weltweit gelieferte Gesamtkapazität Unstrukturierte Daten Quelle März 2014, IDC Structured vs. Unstructured Data, The balance of power continues to shift 181
TRADITIONELLE WORKLOADS NEXT-GEN WORKLOADS NAS DAS Dateiablagen Analytics SAN CLOUD HPC Mobile TAPE OBJEKT Backup/Archiv Cloud Apps 182
TRADITIONAL WORKLOADS NEXT-GEN WORKLOADS NAS DAS Dateiablage HPC SAN EMC Data Lake Foundation CLOUD Analytics Mobile TAPE OBJECT Backup/Archiv Cloud Apps 183
Next-Gen Zugriffsmethoden Dateiablage DATA Analytics DATA HPC Mobile Backup/Archiv Cloud Apps 184
DATA LAKE Weg in die Zukunft CLOUD SKALIERBAR DATENMANAGEMENT SCHUTZ der DATEN NEXT GEN Zugriffsmethoden DATENSICHERHEIT 185
Herausforderung - Zentrale Dateiablage Status quo $ Stärkstes Kapazitätswachstum liegt bei unstrukturierten Daten $ Hoher Managementaufwand (Datenmigration, Backup, Patchen) $ Wildwuchs bei den Clientbetriebssystemen (BYOD) Erfolgsfaktoren $ Skaleout Architektur mit Wachstumspoetntial bei Kapazität und Performance $ Nur EIN einzelnes Filesystem Einfache Bereitstellung und Wachstum - 0 Datenmigration $ Multiprotokoll Unterstützung 186
High Performance Computing (HPC) Begriffserklärung High Performance Computing bezieht sich ganz allgemein auf die Praxis der Aggregation von Rechenleistung, um die großen Probleme in Wissenschaft, Technik oder Business-Lösung anzugehen. Herausforderungen $ Rechenleistung und Speicherkapazität unabhängig skalieren $ Vermeiden von Dateninseln Parallele Verarbeitung erfordert gemeinsamen Zugriff auf alle Daten $ Kostengünstige und integrierte Archiviermöglichkeit 187
Backup und Archivplattform Erfolgsfaktoren $ Flexible Schnittstellen für Archivsoftware o o Dateiablage via CIFS/NFS CAS API / REST als Objektspeicher $ Compliance Zertifizierung $ Data at rest Verschlüsselung (DAR) 188
Und was genau ist Big Data? Herkömmliche Datenquellen Neue Datenquellen Strukturierte Daten Unstrukturierte Daten Öffentliche Datensätze Soziale Netzwerke, UGC Dunkle Daten Internet der Dinge Geografische Daten Alle Datasets, die nicht mit herkömmlichen Systemen verarbeitet werden können 189
Welche Rolle spielt Hadoop? Verhaltensweisen verstehen Betrieb optimieren Risiken managen Innovation ermöglichen Hadoop ist eine wichtige zugrunde liegende Technologie für die Big Data-Analyse. 190
Herausforderung Hadoop Architektur Status quo $ Kaum Erfahrung beim Lösungsdesign für eine Hadoop Infrastruktur am Markt $ Eingeschränkte Skalierbarkeit bei klassischer Hadoop Architektur $ Wenig Flexibilität bei Hadoop Distributionen und Versionsständen Erfolgsfaktoren $ Einbinden in das Hadoop Ecosystem Anwendung Middleware Distribution Plattform $ Trennung von Compute & Speicher $ Multiprotokoll Unterstützung 191
Mobiler Zugriff von Überall Erfolgsfaktoren $ Erfüllt Complianceanforderung des Unternehmens $ Unterstützung von Mobilen und Stationären Endgeräte $ Breite Unterstützung von Betriebssystemen $ Einbindung in MDM Systeme 192
Software defined Storage Status quo $ Das softwaredefinierte Rechenzentrum ist in vielen Firmen längst angekommen, zumindest was die Serverinfrastruktur betrifft. $ Zu verdanken ist dies dem Siegeszug der Virtualisierung. Speichersysteme sind aber meist noch das fehlende Puzzleteil wenn es darum geht, die Vision vom softwaredefinierten Rechenzentrum wirklich vollständig umzusetzen. $ Gemeint ist damit, die komplette RZ-Infrastruktur zu virtualisieren und als Service anzubieten, also vom Server über das Netzwerk bis hin zu den Speichersystemen Erfolgsfaktoren $ Unterstützung von offenen Industrie Standards $ Abstrahieren von Komplexität durch Automatisierung $ Flexible Skaleout Architektur 193
EMC Data Lake Foundation Scale-out Architektur 194
Vielen Dank für Ihr Interesse DATA 195