STORAGE. Themenheft. Informationsmanagement für Unternehmen STORAGE- LÖSUNGEN FÜR BIG DATA KONFIGURIEREN

Größe: px
Ab Seite anzeigen:

Download "STORAGE. Themenheft. Informationsmanagement für Unternehmen STORAGE- LÖSUNGEN FÜR BIG DATA KONFIGURIEREN"

Transkript

1 Informationsmanagement für Unternehmen STORAGE Themenheft STORAGE- LÖSUNGEN FÜR BIG DATA KONFIGURIEREN Data-Warehousing war gestern: bringt konventionelle Storage-Systeme an ihre Grenzen und verlangt nach neuen Konzepten. PLUS: BIG DATA ERFORDERT NEUE ANSÄTZE FÜR STORAGE ARBEITEN MIT BIG DATA: DER STORAGE- ASPEKT BIG-DATA- TECHNOLOGIEN: AUFBEWAHRUNG, PERFORMANCE, KAPAZITÄT EINFÜHRUNG IN DIE BIG-DATA- ANALYTIK WORAUF SIE BEI DER WAHL IHRER BIG-DATA- INFRASTRUKTUR ACHTEN MÜSSEN

2 editorial * rich castagna neue Ansätze Was auch immer Sie darunter verstehen: Für Anwendungen reichen konventionelle Storage-Systeme häufig nicht mehr aus. in die IT-PROFIS VERBRINGEN in diesen Tagen wahrscheinlich mehr Zeit damit, zu definieren, als die dafür nötigen Systeme aufzubauen. Doch das wird sich bald ändern egal was Sie unter diesem immer gebräuchlicheren Ausdruck verstehen. Ursprünglich bezeichnete etwas, womit es hauptsächlich die Branchen Medien, Unterhaltung und Geo-Exploration zu tun hatten: enorm große Dateien, die zwecks Bearbeitung oder Analysen an Arbeitsplatzrechner übertragen werden mussten. Doch noch bevor sich diese Definition in unserem IT-Bewusstsein einnisten konnte, wurde sie auch schon erweitert: Heute umfasst sie auch das andere Ende des Datenspektrums, also Massen an unstrukturierten kleinen Dateien aus einer Vielzahl von Quellen. Das klingt erst einmal ziemlich verwirrend. Doch Terri McClure bringt in diesem Themenheft etwas Licht in das Dunkel der Definitionen: Big Data, so schreibt er, bezeichnet jegliche Datenbestände, mit denen konventionelle IT-Systeme für das Tagesgeschäft aufgrund von Umfang oder Rechenintensität nicht mehr zurechtkommen. 2

3 in die Diese Definition ist ausgesprochen sinnvoll. Sie mag noch weiter gefasst sein als andere aktuelle Konzepte, ermöglicht aber einen pragmatischen Umgang mit dem Thema. Die Diskussion um ist derzeit stark auf die aspekte dieses Themas konzentriert. Storage-Verantwortliche könnten deshalb auf die Idee kommen, dass sie gar nichts damit zu tun haben, all die Daten zu etwas Nützlichem zu machen intelligente Informationen, mit denen Unternehmen ihr Geschäft opt imieren oder erweitern können. Tatsächlich aber spielt Storage eine entscheidende Rolle: Ohne eine solche ist es nicht möglich, aus riesigen Mengen an Rohdaten verwertbare Informationen zu gewinnen. Umgebungen sind derart umfangreich, dass schon bei der Konfiguration der nötigen Storage-Systeme wichtige Entscheidungen zu treffen sind. Letztlich werden dabei schon die Weichen für den Erfolg ihrer gesamten Bemühungen gestellt. Unter versteht man heute wie erwähnt entweder wenige riesige Dateien oder Millionen von kleinen. In beiden Szenarien ist sehr viel erforderlich, doch damit enden die Gemeinsamkeiten auch schon. Konventionelle Storage-Systeme dürften für Zwecke nicht ausreichen: Entweder sie können die Daten nicht effektiv genug zur anwendung befördern, oder sie sind für derart kapazitätsintensive Aufgaben schlicht zu teuer. Bei der Bereitstellung von Storage für ist deshalb neues Denken gefragt, vor allem wenn ältere Architekturen durch Technologien wie Hadoop oder objektbasierte Speicherung infrage gestellt werden. Früher mag größer und schneller ausgereicht haben, um neue Storage-Herausforde- rungen zu meisten. IT-Profis verbringen heutzutage wahrscheinlich mehr Zeit damit, zu definieren, als die nötigen Systeme dafür aufzubauen. Rich Castagna ist Editorial Director // Chefredakteur der Storage Media Group. 3

4 der Storage- Ob es darum geht, zu definieren, Hadoop zu verstehen oder die Folgen großer Datenbestände abzuschätzen: Storage-Profis müssen den Trend genau verstehen. VON TERRI MCCLURE in die HEUTZUTAGE SCHEINT ES fast unmöglich, dem Ausdruck zu entgehen doch eine allgemein gültige Definition, was das eigentlich ist, hat die Branche noch nicht. Die Enterprise Strategy Group (ESG) definiert als Datenbestände, die Grenzen und Größen üblicher Verarbeitungsressourcen übersteigen, sodass ein nicht-konventioneller Ansatz erforderlich ist. Gemeint sind also Datensammlungen, mit denen konventionelle IT-Systeme für das Tagesgeschäft aufgrund von Umfang oder Rechenintensität nicht mehr zurechtkommen. Dabei stoßen die alten Systeme an unterschiedlichsten Fronten an ihre Grenzen: Das Transaktionsvolumen kann so hoch sein, dass konventionelle Storage-Lösungen zum Engpass werden und nicht mehr schnell genug arbeiten. Es fehlt ihnen an Rechenleistung für die hohe Zahl an Lese- und Schreibvorgängen. Manchmal haben sie auch einfach nicht genügend Laufwerke dafür. Viele Anwender behelfen sich bei drohenden Engpässen mit einem Trick namens Short-Stroking : Sie befüllen ihre Festplatten nur teilweise, sodass pro Gigabyte mehr Laufwerke für In- und Outputs zur Ver- 4

5 fügung stehen. Manchmal installieren Anwender auch mehrere Storage-Systeme nebeneinander und behandeln einen Teil ihrer als Reserve. Beides ist natürlich eine teure Lösung, weil man viele Festplatten kaufen muss, die teilweise ungenutzt bleiben. Die Größe der Daten (einzelne Einträge, Dateien oder Objekte) kann dazu führen, dass konventionelle Systeme nicht genügend Durchsatz haben, um hinreichend schnell Daten zur Verfügung zu stellen ihre Bandbreite reicht schlicht nicht mehr aus. Auch in solchen Fällen greifen Organisationen zu Short-Stroking und mehr Festplatten und auch hier nehmen sie damit geringe Auslastung und hohe Kosten in Kauf. Das Gesamtvolumen der Inhalte ist so hoch, dass es die sgrenze konventioneller Storage-Systeme überschreitet ein reines Mengenproblem. Dies führt zu Storage-Wucherung in Form von Dutzenden oder Hunderten von Speicher-Silos mit ebenso vielen Managementoberflächen. Die Folge sind erneut geringe Auslastung und dazu überhöhter Platz-, Strom- und Kühlungsbedarf. in die Wenn diese drei Faktoren zusammenkommen, wird die Lage fast schon bedrohlich. Und tatsächlich ist es durchaus realistisch, dass manchmal riesige Mengen an Lese- und Scheibvorgängen mit massenhaft Daten in enormen Dateigrößen vonnöten sind. HILFREICHE STORAGE-ARCHITEKTUREN Erfreulicherweise haben sich Speicherarchitekturen insofern weiterentwickelt, als sie nun besser mit dem steigenden Datenvolumen von umgehen können. Bei ihren Eigenschaften gibt es Unterschiede im Detail, aber auch Ähnlichkeiten. Am I/O-intensiven Ende des Spektrums mit hohen Transaktionsvolumina sieht die ESG gute Chancen für Architekturen, die sich durch zusätzliche Laufwerke erweitern lassen. Dies ist der traditionelle An- 5

6 in die satz, für den Systeme wie EMC VMAX, Hitachi Data Systems Virtual Storage Platform (VSP) oder IBM DS8000 gut geeignet sind. An der Front der großen Dateien haben die fortschrittlichsten Branchen, die es seit Jahren mit zu tun haben, schon früh mit Storage-Systemen gearbeitet, die auf genügend Bandbreite für große Dateien ausgelegt sind. Hier sind unter anderem Systeme von DataDirect Networks, Ibrix X9000 von Hewlett-Packard, Isilon (inzwischen EMC Isilon) und Panasas zu nennen. Traditionelle Hochskalierung (Scale-Up) bedeutet, dass man irgendwann an eine Grenze stößt. Scale-Out oder horizontale Skalierung dagegen bietet deutlich mehr Flexibilität zur Erhöhung von oder Rechenleistung. Je stärker Umfänge zu einem verbreiteten Phänomen werden, desto mehr Verbreitung finden derartige Systeme. Häufig gibt es dabei eine Mischung aus I/O- und durchsatzintensiven Anforderungen, also sind sowohl Scale-Up als auch Scale-Out erforderlich. An der letzten Front schließlich, beim schieren Datenvolumen, ist ein Trend zu objektbasierten Scale-Out-Speichersystemen zu beobachten. Diese machen es leichter, Milliarden von Datenobjekten innerhalb eines einheitlichen, einfach zu verwaltenden Systems aufzubewahren. Der Vorteil solcher Systeme liegt darin, dass sie die Definition von robusten Metadaten für leichteres Content-Management und Tracking erlauben. Zudem sind sie darauf ausgelegt, mit einfachen, preiswerten Speicherlaufwerken zu arbeiten (ein gutes Beispiel dafür ist die DX6000-Storage-Platform-Serie von Dell). WIE SIEHT ES MIT HADOOP AUS? Kein Artikel über ist vollständig ohne eine Beschäftigung mit Hadoop. Mit dieser Open-Source-Technologie lassen sich Analysedurchläufe ohne exorbitante Kosten beschleunigen (von Wochen auf Stunden oder Minuten). Viele Unternehmen zeigen Interesse daran, zumal für Hadoop oft Standardserver mit günstiger direkt angeschlossener Speicherung (Direct Attached Storage DAS) ausreichen. 6

7 in die Hadoop wird eingesetzt zur Verarbeitung großer Mengen an Daten. Es besteht aus zwei Komponenten: MapReduce und Hadoop Distributed File System (HDFS). (Sehr) einfach ausgedrückt, kümmert sich MapReduce um das Management von Rechenjobs, und das HDFS ist dafür zuständig, wo im Cluster die Daten gespeichert werden. Wenn eine Berechnung gestartet wird, teilt MapReduce sie in Teilaufgaben auf, die parallel erledigt werden können. Im Grunde fragt es beim HDFS an, wo die Daten für jede Teilaufgabe zu finden sind, und übergibt diese Teilaufgabe dann an den Rechenknoten, auf dem die Daten liegen. Auf gewisse Weise werden Berechnung und Daten also zusammengebracht. Die Teilergebnisse werden dann zurück an den MapReduce-Master gemeldet, der sie konsolidiert und das Endergebnis auswirft. Zum Vergleich: Ein konventionelles System bräuchte dafür einen großen und teuren Server mit hoher Rechenleistung, verbunden mit einem großen und teuren Speicher-Array. Es würde alle erforderlichen Daten einlesen, die Analyse durchführen und die Ergebnisse weitgehend seriell ausgeben. Angesichts des hohen Datenvolumens würde es dafür länger brauchen als das Hadoop-basierte MapReduce. Die Unterschiede lassen sich mit einer einfachen Analogie veranschaulichen: Angenommen, 20 Menschen befinden sich in einem Lebensmittelladen und müssen alle dieselbe Schlange an der Kasse durchlaufen. Wenn jeder von ihnen für 200 Dollar einkauft und das Scannen und Zusammenrechnen jeweils zwei Minuten dauert, braucht der einzelne Super-Kassierer zum Einnehmen von 4000 Dollar 40 Minuten. Mit Hadoop dagegen sähe es im Laden so aus: Zehn Kassen werden mit billigen Teilzeitkräften besetzt, die für jede Einzeltransaktion 50 Prozent mehr Zeit (also drei Minuten) brauchen. Um dieselben 20 Kunden zu bedienen, brauchen sie zusammen nur sechs Minuten, der Umsatz liegt aber trotzdem bei 4000 Dollar. Aus geschäftlicher Sicht ist es überaus lohnend, eine Aufgabe in 6 statt in 40 Minuten erledigt zu bekommen. In den gewonnenen 34 Minuten lässt sich dann noch mehr erledigen wie viele weitere Erkenntnisse könnten Sie in dieser Zeit gewinnen und wie viel schneller könnten Sie auf Markttrends reagieren? In dieselbe Situation brin- 7

8 gen Sie Ihre Kollegen vom Management, wenn diese auf die Ergebnisse von Analyseanfragen nicht mehr so lange warten müssen. Hadoop ist nicht perfekt. Cluster-Dateisysteme sind komplex. Ein Großteil dieser Komplexität bleibt dem HDFS-Administrator zwar verborgen, trotzdem kann es einige Zeit kosten, einen Hadoop-Cluster effizient zum Laufen zu bringen. Hinzu kommt, dass es in der aktuellen Version von Apache Hadoop einen Single Point of Failure im HDFS gibt: die Daten-Map (genannt NameNode), in der als Metadaten festgehalten ist, wo all die Daten liegen. Die Behebung dieser Schwäche steht auf der Prioritätenliste für die nächste Hauptversion ganz oben. Einstweilen aber bleibt es dem Administrator überlassen, wie gut die Daten geschützt werden: Die Einstellung zur Daten- Replikation bestimmt darüber, wie viele Mal Daten im Cluster kopiert werden. Die Voreinstellung ist drei, sodass dreimal so viel vorgehalten werden muss, wie wirklich genutzt werden kann. Und das betrifft nur den lokalen Cluster selbst Backups und externes Disaster Recovery (DR) werden von den aktuellen Hadoop-Versionen nicht abgedeckt. Zudem gibt es keine große Auswahl an Fachkräften auf dem Markt, die sich mit Hadoop auskennen. In Unternehmen wie Cloudera, EMC oder MapR wachsen zwar zunehmend Experten heran, doch das dauert seine Zeit. Dieser letzte Punkt sollte nicht auf die leichte Schulter genommen werden: Aktuelle Studien zeigen, dass bei Projekten mit freien Mitarbeitern oder Beratern pro Entwickler und Jahr mit Kosten von Dollar zu rechnen ist. in die GROSSE DATEN, GRÖSSERE WAHRHEITEN Die Liste von Schwächen bei Hadoop, zusammen mit den erhofften Marktchancen im Bereich kommerzieller, ist für große Storage-Anbieter wie EMC, IBM oder NetApp Anlass genug, sich ebenfalls mit zu beschäftigen. Jeder dieser drei hat bereits Storage-Systeme für Hadoop-Umgebungen herausgebracht (oder wird es garantiert noch tun), die mehr Möglichkeiten für Management, Skalierung und Datensicherung bieten als Hadoop selbst. Die meisten bilden einen Ersatz für die HDFS-Speicherschicht mit offenen Schnittstellen (wie NFS und CFS), bei anderen handelt es sich 8

9 in die um eigene Versionen des MapReduce-Frameworks mit verbesserter Performance. Ebenfalls im Angebot sind Funktionen, die Lücken des Open-Source-Systems HDFS schließen, etwa die Fähigkeit, Daten über die Standard-Schnittstellen NFS und CFS mit anderen Anwendungen auszutauschen, oder deutlich verbesserte Datenschutz- und DR-Funktionen. NetApp geht dabei einen radikal anderen Weg als die meisten anderen Anbieter. Das Unternehmen setzt voll auf den offenen HDFS-Standard und die Arbeit mit Datenknoten mit DAS. Statt eines eigenen Dateisystems mit einem Hadoop-Wrapper verwendet Net- App eine Art Turbo für die DAS mit einem via SAS angebundenen einfachen Haufen Festplatten (just a bunch of discs JBOD) auf Grundlage der Low-End-Plattform Engenio. Für die NameNodes kommt eine über NFS angebundene FAS-Box zum Einsatz, die für den Fall eines NameNodes-Ausfalls eine schnelle Recovery erlaubt. Insgesamt stellt dies einen hybriden Das Beste aus beiden Welten- Ansatz dar. Ob der Markt einen Aufschlag für die höhere Verfügbarkeit und das größere Potenzial zur Nutzung von Anwendungen zu zahlen bereit ist oder nicht, muss sich erst noch zeigen die Entwicklung steht noch ziemlich am Anfang. ist Realität, und nicht alles in diesem Bereich lässt sich unter denselben Hut bringen unterschiedliche Arten von verlangen nach unterschiedlichen Storage-Ansätzen. Selbst wenn Sie ein Problem haben und an die genannten Grenzen stoßen, die Ihnen zeigen, dass Sie etwas anders machen sollten: Wenn Sie mit Ihren Lösungsanbietern darüber reden, sollten Sie sich gar nicht erst mit dem Schlagwort aufhalten. Sprechen Sie stattdessen über Ihr Geschäftsproblem und die Anwendungsfälle. Auf diese Weise können Sie Ihre konkreten Anforderungen herausarbeiten, und aus diesen wird sich auch der passende Storage-Ansatz ergeben. n Terri McClure ist Leitende Storage-Analystin bei der Enterprise Strategy Group in Milford im US-Bundesstaat Massachusetts. 9

10 Werkzeuge und Technologien für Archive Die Anforderungen an die Aufbewahrung von Daten bei sind hoch trotzdem muss auch die Echtzeit-Performance stimmen. VON ERIC SLACK in die DER AUSDRUCK BIG DATA wird verwendet (wenn nicht überstrapaziert) zur Beschreibung von Rechenumgebungen mit extremen Anforderungen, die von konventionellen IT-en nur teilweise zu erfüllen sind. Aus diesem Grund sind alternative Lösungen gefragt. In diesem Artikel beschäftigen wir uns mit den Herausforderungen, die für bestehende Storage-en bedeutet, und mit Technologien, die Vorteile für Value-Added Reseller (VARs) bieten. Eine der Definitionen für ergibt sich aus dem Bereich und bezieht sich auf große Pools an Dateien, auf die nach Belieben zugegriffen werden soll. Manchmal sind auch Datenbanken für hochperformante gemeint, oft in Echtzeit, zum Beispiel bei Finanztransaktionen, Internetanwendungen, wissenschaftlichen Analysen, Ereignisprotokollierung etc. Bei diesen Anwendungsfällen geht es also typischerweise um sehr große Zahlen von kleinen Datenobjekten, die für Highspeed-Analysen zur Verfügung gestellt werden müssen. Es gibt noch eine Definition, von uns als Archiv be- 10

11 in die zeichnet. Diese Referenzarchive müssen sehr große Mengen an großen Dateien zugänglich machen und unterstützen damit meist sequenzielle Verarbeitungsabläufe. Dies ist zum Beispiel bei der Postproduktion von Filmen der Fall. Für derartige Daten gibt es hohe Anforderungen an die denn viele der entstehenden Dateien sind ein zum Verkauf vorgesehenes Endprodukt oder regulatorischen Vorgaben unterworfen und müssen mehrere Jahre lang vorgehalten werden. Auch eine Performance-Komponente ist für diese Archivanwendungsfälle von Bedeutung. Illustrieren lässt sich das anhand von Todesfällen von Prominenten: Als Whitney Houston oder Michael Jackson starben, mussten für eine zeitnahe Berichterstattung große Mengen an Videodateien rasch aus viele Jahre umfassenden Archiven gezogen werden. Bei wiederum besteht die Herausforderung darin, genügend IOPS zu ermöglichen, um die Echtzeit-Analysemaschinen schnell genug mit Daten zu versorgen. In beiden Fällen kann die Konsistenz der Im Prinzip übersteigt das dra matische Wachstum der Datenbestände die Leistungsfähigkeit konventioneller en. Performance ein entscheidender Faktor sein bei konventionellen Speicherinfrastrukturen kann es mit wachsendem Umfang schwierig werden, ihre Performance vorauszusagen. an sich ist kein definierendes Merkmal für Anwendungsfälle und doch einer der Gründe dafür, warum es überhaupt eine Diskussion gibt. Im Prinzip übersteigt das dramatische Wachstum der Datenbestände die Leistungsfähigkeit konventioneller en. Zugleich machen die schieren Mengen die Speicherung von kostspielig. Die Skalierung von Speicherinfrastrukturen, oft bis in den Bereich mehrerer Petabytes hinein, muss deshalb bezahlbar gestaltet werden. Als Nächstes werfen wir einen Blick auf einige Technologien und -Produkte, die diese Anforderungen erfüllen sollen. 11

12 in die RAINSTOR Wenn sich die Menge an gespeicherten Daten verringern lässt, verlieren alle anderen Probleme an Brisanz in einem Umfeld gilt dies wahrscheinlich mehr als überall sonst. Komprimierung und Deduplizierung sind zwei Beispiele für diese Strategie; allerdings kann ihre Anwendung bei Datenbanken komplizierter sein als bei einfachen Dateien. Ein Unternehmen, das dieses Problem in den Griff bekommen hat, ist RainStor. Es hat eine gleichnamige Technologie entwickelt, die Datenreduktion in einer strukturierten Umgebung ermöglicht. Rain- Stor erlaubt die Deduplizierung und Speicherung von großen Datenbanksektionen mit einer Verringerung des Volumens von 40 zu 1; Anwender können die komprimierte Datenbank über Standard-SQL- Anfragen durchsuchen, ohne dass eine Rehydrierung der Daten nötig ist. Vor Kurzem hat das Unternehmen auch eine Version seines Produkts für Hadoop-Umgebungen herausgebracht. Sie läuft nativ im Hadoop-Cluster auf Dateien des Hadoop Distributed File System (HDFS) und bietet für SQL-Anfragen oder MapReduce-Analysen ähnliche Werte bei Datenreduktion und Managementeffizienz. GRIDIRON SYSTEMS Für eine bessere Datenbank-Performance kommt eine blockbasierte Cache-Appliance namens TurboCharger von GridIron Systems infrage. Mithilfe von Flash und DRAM in High-Performance-Umgebungen wie Oracle Real Application Clusters (RAC) ermöglicht sie eine Beschleunigung bis um Faktoren von bis zu 10. Anders als traditionelle Caching-Methoden, die auf Metadaten des Dateisystems basieren, schafft GridIron eine auf Heuristik basierende Map von Milliarden Datenblöcken auf dem Backend-Speicher. Dadurch kann TurboCharger prädiktive Analysen an den Daten vornehmen und Blöcke in den Cache laden, bevor sie gebraucht werden. Als echter Cache kann TurboCharger die Belastung von Storage- Systemen um bis zu 90 Prozent reduzieren und die Schreib-Performance um das bis zu Vierfache erhöhen. Das System wird im Netzwerk installiert und ist transparent für Anwendungen am Frontend 12

13 und Speichersysteme am Backend. Es kommt ohne Änderungen an Speichermedien aus und lässt sich bei steigenden Bandbreite-Anforderungen durch das Hinzufügen von zusätzlichen Appliances in die Breite skalieren. in die QUANTUM Beim Archivieren von kann die Herausforderung auch im Management der Dateisystemumgebung und in seiner Skalierung für den Umgang mit einer sehr großen Zahl von Dateien liegen. StorNext von Quantum ist ein heterogenes SAN-Dateisystem, das schnellen geteilten Zugriff über Linux-, Macintosh-, Unix- und Windows-Clientserver in einem SAN ermöglicht. Zusätzlich kann ein SAN-Gatewayserver hochperformante Zugriffsmöglichkeiten für LAN-Clients schaffen. Ein weiterer Teil von StorNext ist der Storage Manager, eine Policy-basierte Archivierungsengine, die Dateien auf unterschiedliche Stufen von Plattenspeichern und, soweit vorhanden, Bandspeicher verteilt. StorNext unterstützt zudem die asynchrone Replizierung von Verzeichnissen zwischen SAN-basierten Clients für den Schutz von Daten sowie eine integrierte Deduplizierung zur Verringerung von Speicher- und Bandbreitenbedarf. CHANCEN BEI BIG DATA Allgemein gesagt, kommen bestehende Storage-en mit den Anforderungen hinsichtlich Performance (IOPS und Streaming), bezahlbarer und Flexibilität nicht zurecht; dies gilt für ebenso wie für Archivierung. Angesichts der Breite dieses Problems werden die meisten Kunden Technologien von mehreren Anbietern benötigen. Gefragt sind deshalb VARs und Systemintegratoren, die ein breites Spektrum an Technologien vertreten und sie zu den effektivsten Lösungen integrieren. Aus diesem Grund bietet einige große Chancen für VARs. n Eric Slack ist Leitender Analyst bei Storage Switzerland. 13

14 verstehen Für Storage-Profis gibt es vier Bereiche, auf die sie sich bei konzentrieren sollten. VON JOHN WEBSTER in die DER MODETREND CLOUD-COMPUTING verliert langsam an Schwung, doch IT-Anbieter haben schon den nächsten gefunden, und der ist noch in voller Fahrt:. Wie bei früheren Hype-Zyklen geht damit einige Verwirrung bei den Anwendern einher, denn viele Anbieter haben ihre ganz eigene Definition dessen, was damit eigentlich gemeint ist. Die stärkste Verwirrung ergibt sich aus der mangelnden Differenzierung zwischen Storage und. Der Begriff stammt ursprünglich aus der Open-Source-Community, in der prozesse entstanden, die schneller und besser skalierbar sein sollten als mit traditionellem Data-Warehousing. Außerdem ging es darum, aus den riesigen Mengen an unstrukturierten Daten, die Websurfer jeden Tag hinterlassen, geschäftlich wertvolle Erkenntnisse zu gewinnen. Storage hängt damit zusammen. Auch hier geht es um die riesigen Mengen an unstrukturierten Daten, die in Unternehmen zu immer größeren Beständen führen. Die hier eingesetzten Technologien allerdings, wie Scale-Out-NAS und objektbasierte Speicherung, gibt es schon seit Jahren, weshalb sie relativ gut verstanden werden. Auf einer sehr einfachen Ebene ist Speicherung nichts 14

15 weiter als Speicherung von enormen Mengen an unstrukturierten Daten aus Anwendungen. Gebraucht wird sie etwa beim Streaming von hochaufgelösten Videos, bei Öl- und Gasexploration oder in der Genforschung bei den üblichen Verdächtigen also. Ein Marketingmanager bei einem großen Storage-Anbieter, der in diesem Bereich bislang weder eine offizielle Position noch Produkte hat, erzählte mir, dass sein Unternehmen darüber nachdenkt, seine künftigen Angebote als Huge Data zu vermarkten. wiederum ist ein Gebiet, das sich durch schnell wachsende Vielfalt auszeichnet. Aus diesem Grund ist es wahrscheinlich gar nicht sinnvoll, sich hier an einer Definition zu versuchen. Nützlich dagegen ist es, die Merkmale zu identifizieren, die alle heute zu gezählten Technologien gleichermaßen auszeichnen. Dies sind unter anderem: in die die Wahrnehmung, dass konventionelle Data-Warehousing- Prozesse zu langsam und zu schwierig zu skalieren sind; die Fähigkeit, Daten aus unterschiedlichen Quellen zu konsolidieren, sowohl strukturierte als auch unstrukturierte; die Erkenntnis, dass es für die Gewinnung von Wert aus Datenquellen wie mobilen Geräten, RFID, dem Web und einer wachsenden Zahl von automatisierten Sensortechnologien entscheidend darauf ankommt, wie schnell die nötigen Informationen vorliegen. Zusätzlich gibt es mindestens vier bedeutende Entwicklungsstränge, die dabei helfen, zu definieren. Dabei handelt es sich um MapReduce, skalierbare Datenbanken, Stream- Verarbeitung in Echtzeit und Appliances. MAPREDUCE Ein guter Ausgangspunkt zur Beschäftigung mit dem Segment Map- Reduce ist Apache Hadoop. Das Konzept dafür stammt aus einem 15

16 in die Paper, das 2004 bei Google entstand. Es beschrieb einen Prozess zur Parallelisierung der Verarbeitung von Webbasierten Daten, genannt MapReduce. Wenig später entstand als Open-Source-Implementation dieses Prozesses Apache Hadoop. Die Community dazu wächst rapide und produziert reihenweise Add-ons, die seinen Einsatz in Rechenzentren von Unternehmen erleichtern. Nutzer von Apache Hadoop bauen üblicherweise eigene parallelisierte Rechen-Cluster aus Standardservern, jeder davon mit eigenem Storage in Form eines kleinen Disk-Arrays oder in letzter Zeit, zwecks besserer zunehmend auch mit Solid-State- Speichern (SSDs). Hier ist oft von shared-nothing -Architekturen die Rede Storage-Area Networks (SAN) oder Network-Attached Storage (NAS) sind zwar skalierbar und robust, gelten aber hinsichtlich der für diese Cluster nötigen I/O-Performance als nicht leistungsfähiger als gewöhnliche Data-Warehouses. Aus diesem Grund ist die Speicherung bei Hadoop als Direct-Attached Storage (DAS) ausgelegt. Allerdings finden als sekundäre Speicher zunehmend auch SAN und NAS Verbreitung. Für potenzielle Hadoop-Nutzer gibt es eine wachsende Zahl an Auswahlmöglichkeiten von reinem Open Source bis zu hochgradig kommerzialisierten Versionen. Auf der Projekt-Website für Hadoop stehen Apache Hadoop und dazugehörige Werkzeuge kostenlos zur Verfügung. Cloudera Inc. bietet eine kommerzielle Version mit firmeneigenen Erweiterungen und Support an. Andere Open-Source- Varianten, etwa die Facebook-Distribution, sind von Cloudera ebenfalls erhältlich. Zu den kommerziellen Versionen zählt auch die von MapR Technologies, die inzwischen in Hadoop-Appliances von EMC Corp. zum Einsatz kommt. SKALIERBARE DATENBANKEN Hadoop zieht zwar die meisten Schlagzeilen auf sich, weil es in der Lage ist, unstrukturierte Daten in einer Data-Warehouse-artigen Umgebung zu verarbeiten. Doch es gibt noch viele weitere interessante Entwicklungen im Bereich. Auch strukturierte Daten bekommen viel Aufmerksamkeit. NoSQL 16

17 etwa ist eine nicht-relationale, verteilte und horizontal skalierbare Sammlung von Open-Source-Datenbankstrukturen für Websites mit hohem Datenaufkommen und Streaming-Medien. Um sie herum ist eine lebhafte und schnell wachsende Community entstanden. Zu ihren dokumentorientierten Implementationen zählen MongoDB (eine Anspielung auf humongous gigantisch) und Terrastore. Eine weitere orientierte Datenbank aus der Open-Source- Community ist SciDB, entwickelt für Anwendungsfälle wie Umweltbeobachtung, Radioastronomie oder Seismologie. Die Anbieter von traditionellen Data-Warehouse-Lösungen sehen diesem Treiben nicht etwa tatenlos zu. Orcale Corp. arbeitet Mit Hilfe von StreamSQL ist es seit 2003 möglich, Echtzeit-Analysen von mehreren Datenströmen gleichzeitig durchzuführen. an next generation -Plattformen, bei denen für Informationsgenerierung in Echtzeit seine plattform und In-Memory-Computing zum Einsatz kommen. Teradata Corp. hat vor Kurzem Aster Data Systems Inc. übernommen, um die SQL-MapReduce-Implementation dieses Unternehmens in sein Produktportfolio aufnehmen zu können. in die STREAM-VERARBEITUNG IN ECHTZEIT Mithilfe von StreamSQL ist es seit 2003 möglich, Echtzeit-Analysen an mehreren Datenströmen gleichzeitig vorzunehmen. Bislang konnte StreamSQL damit erst ein paar kleinere Nischenmärkte bei Finanzdienstleistungen, Überwachung und Monitoring von Telecom- Netzen erschließen. Angesichts des neuerdings wuchernden Interesses an allem, was mit zu tun hat, dürfte StreamSQL bald aber mehr Aufmerksamkeit und Marktchancen bekommen. StreamSQL ist ein Nebenprodukt eines Zweigs der Informatik- Forschung namens Complex Event Processing (CEP), einer Techno- 17

18 logie für die Verarbeitung von Daten aus der physischen Welt mit geringer Latenz. Produkte gibt es hier sowohl von IBM InfoSphere Streams als auch von StreamBase Systems Inc. in die BIG-DATA-APPLIANCES Mit dem Vordringen von in die Rechenzentren gewöhnlicher Unternehmen ergibt sich für Anbieter zudem die Chance, Appliances zusammenzustellen. In diesen werden Server, Netzwerk und Storage so in ein gemeinsames Gehäuse integriert, dass die auf ihnen installierte software schnellere Ergebnisse liefert. Zielgruppe für diese Appliances sind Unternehmenskunden, die vor allem an einfacher Implementation interessiert sind und deren Anforderungen gut dazu passen. Zu den Anbietern in diesem Bereich zählen EMC mit seinen Appliances auf Grundlage der Datenbank-Engine Greenplum, Netezza von IBM, die vor Kurzem angekündigte kommerzielle Hadoop-Version von MapR sowie Oracle und Teradata mit vergleichbaren, vorintegrierten Systemen. BIG-DATA-STORAGE FÜR BIG-DATA-ANALYTIK Wer in der Praxis mit prozessen zu tun hat, steht Shared Storage meist eher feindlich gegenüber. Bevorzugt wird DAS in seinen unterschiedlichen Formen von SSDs bis zu SATA-Festplatten mit hoher, die an parallelen Rechenknoten hängen. Shared-Storage-Architekturen wie SAN und NAS werden meist als zu langsam, zu komplex und vor allem zu teuer wahrgenommen. Diese Eigenschaften sind schlecht vereinbar mit systemen, die hinsichtlich standardisierter und Kosten einiges zu bieten haben. Eines der definierenden Merkmale von ist Informationsgenerierung in Echtzeit oder Beinahe-Echtzeit. Daten im Arbeitsspeicher sind deshalb gut; Daten am anderen Ende einer SAN-Anbindung über Fibre Channel sind nicht gut. Vielleicht am schwersten aber wiegt, dass die Kosten für ein SAN in einer für 18

19 anwendungen nötigen Größenordnung prohibitiv hoch sein können. Trotzdem gibt es auch Argumente, die für Shared Storage bei sprechen. Dabei gibt es als gelungenes Beispiel etwa die Integration der ParAccel Analytic Database (PADB) mit SAN- Storage von NetApp. Entwickler von Storage-Technologien gehen mittlerweile dazu über, Storage nicht mehr als physische Einrichtung zu verstehen, sondern eher als virtuelles und abstraktes Gebilde. Als Folge davon könnten und sollten Praktiker Shared-Storage durchaus als ein Gebiet betrachten, das ihnen gute Dienste leisten kann. Dazu zählen: in die 1. Schutz von Daten und Systemverfügbarkeit: Storagebasierte Kopierfunktionen, die kein Ruhen der Datenbank erfordern, ermöglichen neustartfähige Kopien nach Systemabstürzen oder Fällen von Datenkorruption. 2. Geringerer Zeitaufwand für den Einsatz neuer Anwen- dungen und automatisierte Prozesse: Wenn neue Anwendungen mithilfe von wiederverwendbaren Datenkopien vorbereitet werden können, lassen sie sich schneller zum Laufen bringen. Dies steigert die geschäftliche Agilität. 3. Change-Management: Shared-Storage hat das Potenzial, die Auswirkungen erforderlicher Änderungen und Upgrades auf die Live-Produktionsumgebung zu verringern, weil es die always on -Funktionalität unterstützt. 4. Lebenszyklusmanagement: Systemevolution und der Austausch überholter Anwendungen werden erleichtert, wenn Shared-Storage als Database of Record dient. 5. Kostenersparnis: Die Verwendung von Shared-Storage als Ergänzung zu DAS in einer shared nothing -Architektur verringert die Kosten und Komplexität von Prozessorknoten. 19

20 in die BIG DATA IST EIN BIG DEAL Konventionelles Data-Warehousing ist eine große, aber relativ langsame Quelle von Informationen für die Geschäftsanalytik. Es arbeitet mit begrenzten Datenressourcen und ist angewiesen auf re-iterative Extract-, Transform- und Load-Prozesse (ETL). Heute jedoch wollen Anwender schnellen Zugang zu Informationen, die auf der ständigen Auswertung multipler Datenquellen auf verwertbare Schätze beruhen. Bis zu einem gewissen Grad ist definiert durch die Notwendigkeit, große Datensätze aus unterschiedlichen Quellen zu durchforsten und Informationen in Echtzeit oder Beinahe-Echtzeit zu generieren. bietet eine große Gelegenheit. Heute beschäftigen sich IT-Organisationen mit den oben vorgestellten Technologien, um webbasierte Datenquellen auszuwerten oder um vom Boom bei sozialen Netzwerken zu profitieren. Jedoch bahnt sich bereits eine noch größere Chance an: das Internet der Dinge als neue Datenquelle. Cisco Systems Inc. schätzt, dass es derzeit etwa 35 Milliarden elektronische Geräte gibt, die sich per Kabel oder drahtlos ans Internet anschließen lassen selbst Autohersteller sehen für ihre Fahrzeuge mittlerweile eine Netzanbindung vor. Vernetzte Autos werden zunehmend allgegenwärtig und Millionen von flüchtigen Datenströmen generieren. Bei der Nutzung von vielfältigen Datenquellen wie dem Internet der Dinge werden Technologien gefragt sein, die über traditionelles Data-Warehousing weit hinausgehen. Die eingesetzten Prozesse werden ähnlich funktionieren müssen wie das menschliche Gehirn. Es nimmt riesige Ströme an sensorischen Daten auf und bildet die nötigen Korrelationen, die uns wissen lassen, wo wir sind, was wir tun und letztlich, was wir denken alles in Echtzeit. Genau diese Art der Datenverarbeitung ist es, die auch in der erreicht werden soll. n John Webster trägt als Leitender Partner bei Evaluator Group Inc. zur Forschung des Unternehmens an Datenspeicherung in den Bereichen Hardware, Software und Service-Management bei. 20

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zettabyte CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zetabyte: analytische Datenbanken Die Datenflut. Analytische Datenbanken: Was ist neu? Analytische Datenbanken:

Mehr

Software Defined Storage

Software Defined Storage Software Defined Storage - Wenn Speicher zum Service wird - Copyright 2015 DataCore Software Corp. All Rights Reserved. Copyright 2015 DataCore Software Corp. All Rights Reserved. Über uns... Über 25.000

Mehr

Software Defined Storage in der Praxis

Software Defined Storage in der Praxis Software Defined Storage in der Praxis Jens Gerlach Regional Manager West 1 Der Speichermarkt im Umbruch 1985 2000 Heute Herausforderungen Serverspeicher Serverspeicher Serverspeicher Hyper-konvergente

Mehr

FACTSHEET. Backup «ready to go»

FACTSHEET. Backup «ready to go» FACTSHEET Backup «ready to go» Backup «ready to go» für Ihre Virtualisierungs-Umgebung Nach wie vor werden immer mehr Unternehmensanwendungen und -daten auf virtuelle Maschinen verlagert. Mit dem stetigen

Mehr

Copyright 2015 DataCore Software Corp. All Rights Reserved. 1

Copyright 2015 DataCore Software Corp. All Rights Reserved. 1 Copyright 2015 DataCore Software Corp. All Rights Reserved. 1 Software Defined Storage - wenn Storage zum Service wird - Jens Gerlach Regional Manager West Copyright 2015 DataCore Software Corp. All Rights

Mehr

Software oder Appliance basierende Deduplikation Was ist die richtige Wahl? Storagetechnology 2010

Software oder Appliance basierende Deduplikation Was ist die richtige Wahl? Storagetechnology 2010 Software oder Appliance basierende Deduplikation Was ist die richtige Wahl? Storagetechnology 2010 Frank Herold Manager PreSales CEE Quantums Portfolio StorNextSoftware DXiSerie ScalarSerie ManagementTools

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

Big Data Hype und Wirklichkeit Bringtmehrauchmehr?

Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Günther Stürner, Vice President Sales Consulting 1 Copyright 2011, Oracle and/or its affiliates. All rights Überschrift 2 Copyright 2011, Oracle and/or

Mehr

EMC. Data Lake Foundation

EMC. Data Lake Foundation EMC Data Lake Foundation 180 Wachstum unstrukturierter Daten 75% 78% 80% 71 EB 106 EB 133 EB Weltweit gelieferte Gesamtkapazität Unstrukturierte Daten Quelle März 2014, IDC Structured vs. Unstructured

Mehr

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen 01000111101001110111001100110110011001 Volumen 10 x Steigerung des Datenvolumens alle fünf Jahre Big Data Entstehung

Mehr

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN CLOUD-ENTWICKLUNG: BESTE METHODEN 1 Cloud-basierte Lösungen sind auf dem IT-Markt immer weiter verbreitet und werden von immer mehr

Mehr

EMC VPLEX-PRODUKTREIHE

EMC VPLEX-PRODUKTREIHE EMC VPLEX-PRODUKTREIHE Kontinuierliche Verfügbarkeit und Datenmobilität innerhalb von und über Rechenzentren hinweg KONTINUIERLICHE VERFÜGBARKEIT UND DATENMOBILITÄT FÜR GESCHÄFTSKRITISCHE ANWENDUNGEN Moderne

Mehr

Hitachi File & Content Services: Hitachi NAS Plattform. Uwe Angst NAS Business Manager

Hitachi File & Content Services: Hitachi NAS Plattform. Uwe Angst NAS Business Manager Hitachi File & Content Services: Hitachi NAS Plattform Uwe Angst NAS Business Manager 1 Hitachi, Ltd. (NYSE:HIT/TSE:6501) Einer der One of the weltgrössten integrierten Elektronikkonzerne Gegründet 1910

Mehr

Dunkel Cloud Storage. Der sichere Cloud-Speicher für Unternehmen

Dunkel Cloud Storage. Der sichere Cloud-Speicher für Unternehmen Dunkel Cloud Storage Der sichere Cloud-Speicher für Unternehmen Was ist Dunkel Cloud Storage? Dunkel Cloud Storage (DCS) stellt Ihnen Speicherplatz nach Bedarf zur Verfügung, auf den Sie jederzeit über

Mehr

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2.

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2. Cloud Computing Frank Hallas und Alexander Butiu Universität Erlangen Nürnberg, Lehrstuhl für Hardware/Software CoDesign Multicorearchitectures and Programming Seminar, Sommersemester 2013 1. Definition

Mehr

White. Paper. Die Enterprise Hadoop-Lösung von EMC. Isilon Scale-out-NAS und Greenplum HD. Februar 2012

White. Paper. Die Enterprise Hadoop-Lösung von EMC. Isilon Scale-out-NAS und Greenplum HD. Februar 2012 White Paper Die Enterprise Hadoop-Lösung von EMC Isilon Scale-out-NAS und Greenplum HD Von Julie Lockner, Senior Analyst, und Terri McClure, Senior Analyst Februar 2012 Dieses ESG White Paper wurde von

Mehr

Backup- und Replikationskonzepte. SHE Informationstechnologie AG Patrick Schulz, System Engineer

Backup- und Replikationskonzepte. SHE Informationstechnologie AG Patrick Schulz, System Engineer Backup- und Replikationskonzepte SHE Informationstechnologie AG Patrick Schulz, System Engineer Übersicht Vor dem Kauf Fakten zur Replizierung Backup to Agentless Backups VMware Data Protection Dell/Quest

Mehr

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick:

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Red Hat Storage Server Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Offene Software Lösung für Storage Ansprache über einen globalen Namensraum Betrachtet Storage als einen virtualisierten

Mehr

Heterogenes Speichermanagement mit V:DRIVE

Heterogenes Speichermanagement mit V:DRIVE Heterogenes Speichermanagement mit V:DRIVE V:DRIVE - Grundlage eines effizienten Speichermanagements Die Datenexplosion verlangt nach innovativem Speichermanagement Moderne Businessprozesse verlangen auf

Mehr

TIM AG. NetApp @ BASYS. Dipl. Informatiker (FH) Harald Will Consultant

TIM AG. NetApp @ BASYS. Dipl. Informatiker (FH) Harald Will Consultant NetApp @ BASYS Dipl. Informatiker (FH) Harald Will Consultant Organisatorisch Teilnehmerliste Agenda NetApp @ BASYS Data ONTAP Features cdot die neue Architektur Flash die neue Technologie Live Demo Agenda

Mehr

GESCHÄFTSKRITISCHE ORACLE- UMGEBUNGEN MIT VMAX 3

GESCHÄFTSKRITISCHE ORACLE- UMGEBUNGEN MIT VMAX 3 GESCHÄFTSKRITISCHE ORACLE- UMGEBUNGEN MIT VMAX 3 GESCHÄFTSKRITISCHE GRUNDLAGEN Leistungsstark Hybridspeicher mit flashoptimierten Performance-Service-Levels nach Maßfür geschäftskritische Oracle Workloads;

Mehr

Vorstellung SimpliVity. Tristan P. Andres Senior IT Consultant

Vorstellung SimpliVity. Tristan P. Andres Senior IT Consultant Vorstellung SimpliVity Tristan P. Andres Senior IT Consultant Agenda Wer ist SimpliVity Was ist SimpliVity Wie funktioniert SimpliVity Vergleiche vsan, vflash Read Cache und SimpliVity Gegründet im Jahr

Mehr

Zuerst zu Open Source wechseln

Zuerst zu Open Source wechseln Zuerst zu Open Source wechseln Zuerst zu Open Source wechseln Inhaltsverzeichnis Zuerst zu Open Source wechseln... 3 In die Mitte.... 4 Veränderungen in der Wirtschaftlichkeit der IT.... 6 2 Zuerst zu

Mehr

Big Data Mythen und Fakten

Big Data Mythen und Fakten Big Data Mythen und Fakten Mario Meir-Huber Research Analyst, IDC Copyright IDC. Reproduction is forbidden unless authorized. All rights reserved. About me Research Analyst @ IDC Author verschiedener IT-Fachbücher

Mehr

Managed Cloud Services

Managed Cloud Services Managed Cloud Services Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Cloud Services

Mehr

STORAGE IN DEUTSCHLAND 2013

STORAGE IN DEUTSCHLAND 2013 Fallstudie: NetApp IDC Market Brief-Projekt STORAGE IN DEUTSCHLAND 2013 Optimierung des Data Centers durch effiziente Speichertechnologien netapp Fallstudie: Thomas-Krenn.AG Informationen zum Unternehmen

Mehr

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit Big Data und Business Analytics für Kunden und Unternehmen Umfangreiche und ständig anwachsende Datenvolumen verändern die Art und Weise, wie in zahlreichen Branchen Geschäfte abgewickelt werden. Da immer

Mehr

WILLKOMMEN 100.000. Quantum ist der weltweit GRÖSSTE Spezialist für Backup, Recovery und Archivierung von Daten.

WILLKOMMEN 100.000. Quantum ist der weltweit GRÖSSTE Spezialist für Backup, Recovery und Archivierung von Daten. 85 der Fortune 100-Unternehmen arbeiten mit Quantum 10 -mal Produkt des Jahres WILLKOMMEN Quantum ist der weltweit GRÖSSTE Spezialist für Backup, Recovery und Archivierung von Daten. 33 Jahre Branchenerfahrung

Mehr

EMC VPLEX-PRODUKTREIHE

EMC VPLEX-PRODUKTREIHE EMC VPLEX-PRODUKTREIHE Kontinuierliche Verfügbarkeit und Datenmobilität innerhalb von und über Rechenzentren hinweg KONTINUIERLICHE VERFÜGBARKEIT UND DATENMOBILITÄT FÜR GESCHÄFTSKRITISCHE ANWENDUNGEN Moderne

Mehr

Hyper-Converged - Weniger ist mehr!

Hyper-Converged - Weniger ist mehr! Hyper-Converged - Weniger ist mehr! oder wenn 2 > 3 ist! Name Position 1 Rasches Wachstum bei Hyper-Konvergenz Starke Marktprognosen für integrierte Systeme (Konvergent und Hyper-Konvergent) - 50 % jährlich

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

Wie unterstützt EMC mit Automatisierung die Anforderungen der Server Virtualisierung?

Wie unterstützt EMC mit Automatisierung die Anforderungen der Server Virtualisierung? Wie unterstützt EMC mit Automatisierung die Anforderungen der Server Virtualisierung? Joachim Rapp Partner Technology Consultant 1 Automation in der Speicher-Plattform Pooling Tiering Caching 2 Virtualisierung

Mehr

WICHTIGE GRÜNDE FÜR EMC FÜR DAS ORACLE-LIFECYCLE-MANAGEMENT

WICHTIGE GRÜNDE FÜR EMC FÜR DAS ORACLE-LIFECYCLE-MANAGEMENT WICHTIGE GRÜNDE FÜR EMC FÜR DAS ORACLE-LIFECYCLE-MANAGEMENT ÜBERBLICK ORACLE-LIFECYCLE-MANAGEMENT Flexibilität AppSync bietet in das Produkt integrierte Replikationstechnologien von Oracle und EMC, die

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

dsmisi Storage Lars Henningsen General Storage

dsmisi Storage Lars Henningsen General Storage dsmisi Storage dsmisi MAGS Lars Henningsen General Storage dsmisi Storage Netzwerk Zugang C Zugang B Zugang A Scale-Out File System dsmisi Storage Netzwerk Zugang C Zugang B Zugang A benötigt NFS oder

Mehr

Storage Management Konzepte

Storage Management Konzepte Storage Management Konzepte Der Trend, dass Information immer und überall auf der Welt zur Verfügung stehen müssen wie auch der stetig steigende Speicherbedarf stellen neue Anforderungen an die Datenspeicherung

Mehr

Veränderung der Speicherlandschaft durch Speicher-Virtualisierung

Veränderung der Speicherlandschaft durch Speicher-Virtualisierung Veränderung der Speicherlandschaft durch Speicher-Virtualisierung Andreas Sänger Channel Account Manager 1 Speicherbedarf nimmt weiter rasant zu - aber ohne Nachhaltigkeit - 2 Herausforderungen der Speicherarchitekturen

Mehr

Oracle Database 10g Die RAC Evolution

Oracle Database 10g Die RAC Evolution Oracle Database 10g Die RAC Evolution Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 RAC-Revolution, RAC-Evolution & Computing Oracle8i mit OPS Oracle9i Rel.

Mehr

EMC ISILON & TSM. Hans-Werner Rektor Advisory System Engineer Unified Storage Division. Oktober 2013

EMC ISILON & TSM. Hans-Werner Rektor Advisory System Engineer Unified Storage Division. Oktober 2013 EMC ISILON & TSM Hans-Werner Rektor Advisory System Engineer Unified Storage Division Oktober 2013 1 Tivoli Storage Manager - Überblick Grundsätzliche Technologie Incremental Forever Datensicherungsstrategie

Mehr

16.11.2010 HOTEL ARTE, OLTEN

16.11.2010 HOTEL ARTE, OLTEN INFONET DAY 2010 16.11.2010 HOTEL ARTE, OLTEN STORAGE DESIGN 1 X 1 FÜR EXCHANGE 2010 WAGNER AG Martin Wälchli martin.waelchli@wagner.ch WAGNER AG Giuseppe Barbagallo giuseppe.barbagallo@wagner.ch Agenda

Mehr

Storage as a Service im DataCenter

Storage as a Service im DataCenter Storage as a Service im DataCenter Agenda Definition Storage as a Service Storage as a Service und IT-Sicherheit Anwendungsmöglichkeiten und Architektur einer Storage as a Service Lösung Datensicherung

Mehr

Buildfrei skalieren für Big Data mit Z2

Buildfrei skalieren für Big Data mit Z2 Buildfrei skalieren für Big Data mit Z2 Henning Blohm ZFabrik Software KG 5.6.2013 1 Teil 1: Buildfrei entwickeln und skalieren Teil 2: Big Data, Cloud, und wie es zusammenpasst 2 1. Teil BUILDFREI ENTWICKELN

Mehr

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar!

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar! Clouds Wolkig bis Heiter Erwartungen der Nutzer Er ist verwöhnt! Verfügbarkeit Viele Anwendungen Intuitive Interfaces Hohe Leistung Er ist nicht dankbar! Mehr! Mehr! Mehr! Moore 1 Erwartungen der Entwickler

Mehr

4 Planung von Anwendungsund

4 Planung von Anwendungsund Einführung 4 Planung von Anwendungsund Datenbereitstellung Prüfungsanforderungen von Microsoft: Planning Application and Data Provisioning o Provision applications o Provision data Lernziele: Anwendungen

Mehr

FLASHRECOVER SNAPSHOTS. Sofortige, unlimitierte Snapshots, speziell für 100 % Flash-Speicherung

FLASHRECOVER SNAPSHOTS. Sofortige, unlimitierte Snapshots, speziell für 100 % Flash-Speicherung FLASHRECOVER SNAPSHOTS Sofortige, unlimitierte Snapshots, speziell für 100 % Flash-Speicherung FLASHRECOVER SNAPSHOTS BIETEN EFFIZIENTE, SKALIERBARE UND LEICHT ZU VERWALTENDE SNAPSHOTS OHNE KOMPROMISSE

Mehr

Isilon Solutions + OneFS

Isilon Solutions + OneFS Isilon Solutions + OneFS Anne-Victoria Meyer Betreuer: Dr. Julian Kunkel Proseminar: Ein-/Ausgabe - Stand der Wissenschaft 16. Oktober 2013 Contents 1 Einleitung 2 1.1 Scale-Out-NAS..........................

Mehr

Die Jagd nach Backup-Duplikaten wird jetzt noch effektiver. DXi4700 Deduplizierungs-Appliance

Die Jagd nach Backup-Duplikaten wird jetzt noch effektiver. DXi4700 Deduplizierungs-Appliance Die Jagd nach Backup-Duplikaten wird jetzt noch effektiver DXi4700 Deduplizierungs-Appliance Vielleicht die effizienteste, günstigste und leistungsfähigste Die Appliance setzt branchenweit neue Maßstäbe

Mehr

Wie Big Data (große Datenmengen) die Bereiche Datensicherung und Datenspeicherung verändert

Wie Big Data (große Datenmengen) die Bereiche Datensicherung und Datenspeicherung verändert I D C E X E C U T I V E B R I E F Wie Big Data (große Datenmengen) die Bereiche Datensicherung und Datenspeicherung verändert August 2012 Verfasst von Carla Arend Gesponsert von CommVault Einführung: Wie

Mehr

PROFI UND NUTANIX. Portfolioerweiterung im Software Defined Data Center

PROFI UND NUTANIX. Portfolioerweiterung im Software Defined Data Center PROFI UND NUTANIX Portfolioerweiterung im Software Defined Data Center IDC geht davon aus, dass Software-basierter Speicher letztendlich eine wichtige Rolle in jedem Data Center spielen wird entweder als

Mehr

Oracle Datenbank: Chancen und Nutzen für den Mittelstand

Oracle Datenbank: Chancen und Nutzen für den Mittelstand Oracle Datenbank: Chancen und Nutzen für den Mittelstand DIE BELIEBTESTE DATENBANK DER WELT DESIGNT FÜR DIE CLOUD Das Datenmanagement war für schnell wachsende Unternehmen schon immer eine große Herausforderung.

Mehr

EMC VIPR SOFTWAREBASIERTER SPEICHER

EMC VIPR SOFTWAREBASIERTER SPEICHER EMC VIPR SOFTWAREBASIERTER SPEICHER Speicherautomatisierung und Bereitstellung von Storage-as-a-Service SPEICHER NEU DEFINIERT UND TRANSFORMIERT Mobile sowie Cloud- und Big Data-Anwendungen und soziale

Mehr

Living Lab Big Data Konzeption einer Experimentierplattform

Living Lab Big Data Konzeption einer Experimentierplattform Living Lab Big Data Konzeption einer Experimentierplattform Dr. Michael May Berlin, 10.12.2012 Fraunhofer-Institut für Intelligente Analyseund Informationssysteme IAIS www.iais.fraunhofer.de Agenda n Ziele

Mehr

virtualization and clustering made simple OSL AKTUELL 2015

virtualization and clustering made simple OSL AKTUELL 2015 virtualization and clustering made simple OSL AKTUELL 2015 Schöneiche bei Berlin, 22. April 2015 Über OSL Entwicklung von Infrastruktursoftware (vom Treiber bis zur Oberfläche) im Umfeld von Rechenzentren

Mehr

Storage-Trends am LRZ. Dr. Christoph Biardzki

Storage-Trends am LRZ. Dr. Christoph Biardzki Storage-Trends am LRZ Dr. Christoph Biardzki 1 Über das Leibniz-Rechenzentrum (LRZ) Seit 50 Jahren Rechenzentrum der Bayerischen Akademie der Wissenschaften IT-Dienstleister für Münchner Universitäten

Mehr

Storage Consortium :

Storage Consortium : 1 Marktführer in Unified All-FlashStorage * Storage Consortium : FLASH Storage Summit für Rechenzentren 22. Mai 2014 in Kronberg Helmut Mühl-Kühner TaunHaus GmbH www.nimbusdata.com 2 Marktführer in Multiprotokoll

Mehr

Magirus der IT-Infrastruktur und -Lösungsanbieter. Herzlich willkommen! 17.4. München 26.4. Düsseldorf. Seite 1. 03.5. Frankfurt

Magirus der IT-Infrastruktur und -Lösungsanbieter. Herzlich willkommen! 17.4. München 26.4. Düsseldorf. Seite 1. 03.5. Frankfurt Herzlich willkommen! 17.4. München 26.4. Düsseldorf Seite 1 03.5. Frankfurt Optimierung von IT-Infrastrukturen durch Serverund Storage-Virtualisierung IT-Infrastruktur- und -Lösungsanbieter Produkte, Services

Mehr

Big Data Herausforderungen für Rechenzentren

Big Data Herausforderungen für Rechenzentren FINANCIAL INSTITUTIONS ENERGY INFRASTRUCTURE, MINING AND COMMODITIES TRANSPORT TECHNOLOGY AND INNOVATION PHARMACEUTICALS AND LIFE SCIENCES Big Data Herausforderungen für Rechenzentren RA Dr. Flemming Moos

Mehr

Oracle Automatic Storage Management (ASM) Best Practices

Oracle Automatic Storage Management (ASM) Best Practices Oracle Automatic Storage Management (ASM) Best Practices Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 Agenda ASM Funktionalität und Architektur Storage Management

Mehr

Infrastruktur-Lösungen für PDM/PLM und mehr. 2. IT-Expertenforum 24.06.2010 in Aalen

Infrastruktur-Lösungen für PDM/PLM und mehr. 2. IT-Expertenforum 24.06.2010 in Aalen 2. IT-Expertenforum 24.06.2010 in Aalen Backup heute: Hauptprobleme Operative Aspekte Gängigste technische Probleme beim Backup und Recovery: 66 % Backup-Fenster einhalten 49 % Zu langes Recovery 40 %

Mehr

Big Data Informationen neu gelebt

Big Data Informationen neu gelebt Seminarunterlage Version: 1.01 Copyright Version 1.01 vom 21. Mai 2015 Dieses Dokument wird durch die veröffentlicht. Copyright. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen

Mehr

Einführung. Worüber muss man sich beim Kauf eines Storagesystems den Kopf zerbrechen? Copyright 2013 DataCore Software Corp. All Rights Reserved.

Einführung. Worüber muss man sich beim Kauf eines Storagesystems den Kopf zerbrechen? Copyright 2013 DataCore Software Corp. All Rights Reserved. Einführung Worüber muss man sich beim Kauf eines Storagesystems den Kopf zerbrechen? Storage Priorities Expand storage capacity Improve storage performance Simplify mgt & provisioning Consolidate storage

Mehr

RAID. Name: Artur Neumann

RAID. Name: Artur Neumann Name: Inhaltsverzeichnis 1 Was ist RAID 3 1.1 RAID-Level... 3 2 Wozu RAID 3 3 Wie werden RAID Gruppen verwaltet 3 3.1 Software RAID... 3 3.2 Hardware RAID... 4 4 Die Verschiedenen RAID-Level 4 4.1 RAID

Mehr

MySQL Cluster. Kai Voigt MySQL AB kai@mysql.com. Kiel, 17. Februar 2006

MySQL Cluster. Kai Voigt MySQL AB kai@mysql.com. Kiel, 17. Februar 2006 MySQL Cluster Kai Voigt MySQL AB kai@mysql.com Kiel, 17. Februar 2006 1 Agenda Warum? Wie? Wie genau? Was sonst? 2 Warum? 3 Kosten runter Hochverfügbarkeit (99,999%) Redundante Daten und Systeme Wiederherstellung

Mehr

Die Cloud, die für Ihr Unternehmen geschaffen wurde.

Die Cloud, die für Ihr Unternehmen geschaffen wurde. Die Cloud, die für Ihr Unternehmen geschaffen wurde. Das ist die Microsoft Cloud. Jedes Unternehmen ist einzigartig. Ganz gleich, ob im Gesundheitssektor oder im Einzelhandel, in der Fertigung oder im

Mehr

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Seit Microsoft Exchange Server 2010 bieten sich für Unternehmen gleich zwei mögliche Szenarien an, um eine rechtskonforme Archivierung

Mehr

CA ARCserve Backup: Schutz von heterogenen NAS Umgebungen mit NDMP

CA ARCserve Backup: Schutz von heterogenen NAS Umgebungen mit NDMP WHITE PAPER: CA ARCserve Backup Network Data Management Protocol (NDMP) Network Attached Storage (NAS) Option: Integrierter Schutz für heterogene NAS-Umgebungen CA ARCserve Backup: Schutz von heterogenen

Mehr

Geplante Speicherinfrastruktur der Universität Bielefeld

Geplante Speicherinfrastruktur der Universität Bielefeld Geplante Speicherinfrastruktur der Inhalt: 1 Speichertechnologien 2 Motivation 3 Anforderungen 4 Vorgehensweise 5 Mögliche Lösung Speichertechn.: Direct Attached Storage (DAS) Bisher eingesetzte Technologie

Mehr

Isilon Solutions + OneFS

Isilon Solutions + OneFS Isilon Solutions + OneFS Anne-Victoria Meyer Universität Hamburg Proseminar»Ein-/Ausgabe Stand der Wissenschaft«, 2013 Anne-Victoria Meyer Isilon Solutions + OneFS 1 / 25 Inhalt 1. Einleitung 2. Hardware

Mehr

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data: Nutzen und Anwendungsszenarien CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data steht für den unaufhaltsamen Trend, dass immer mehr Daten in Unternehmen anfallen und von

Mehr

PVFS (Parallel Virtual File System)

PVFS (Parallel Virtual File System) Management grosser Datenmengen PVFS (Parallel Virtual File System) Thorsten Schütt thorsten.schuett@zib.de Management grosser Datenmengen p.1/?? Inhalt Einführung in verteilte Dateisysteme Architektur

Mehr

KONVERGENTE SPEICHER- UND

KONVERGENTE SPEICHER- UND EMC SCALEIO Softwarebasiertes konvergentes Server-SAN GRUNDLEGENDE INFORMATIONEN Reine Softwarelösung Konvergente Single-Layer- Architektur Lineare Skalierbarkeit Performance und Kapazität nach Bedarf

Mehr

Big Data in der Forschung

Big Data in der Forschung Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die

Mehr

Dateisysteme und Datenverwaltung in der Cloud

Dateisysteme und Datenverwaltung in der Cloud Dateisysteme und Datenverwaltung in der Cloud Sebastian Fischer Master-Seminar Cloud Computing - WS 2013/14 Institut für Telematik, Universität zu Lübeck Dateisysteme und Datenverwaltung in der Cloud 1

Mehr

Neue einheitliche Technologie repräsentiert FalconStors ersten Schritt hin zu Plattform-basiertem Datenmanagement

Neue einheitliche Technologie repräsentiert FalconStors ersten Schritt hin zu Plattform-basiertem Datenmanagement FalconStor stellt Optimized Backup and Deduplication Solution 8.0 vor Neue einheitliche Technologie repräsentiert FalconStors ersten Schritt hin zu Plattform-basiertem Datenmanagement München, 18. Februar

Mehr

Einführung in Hadoop

Einführung in Hadoop Einführung in Hadoop Inhalt / Lern-Ziele Übersicht: Basis-Architektur von Hadoop Einführung in HDFS Einführung in MapReduce Ausblick: Hadoop Ökosystem Optimierungen Versionen 10.02.2012 Prof. Dr. Christian

Mehr

Tutorial Speichernetze

Tutorial Speichernetze Tutorial Speichernetze Speichervirtualisierung Speichernetze Grundlagen und Einsatz von Fibre Channel SAN, NAS, iscsi und InfiniBand dpunkt.verlag 2003 Agenda Probleme in Speichernetzen Speichervirtualisierung

Mehr

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension

Mehr

Information Lifecycle Management (ILM) - neue Speicherkonzepte für die digitale Archivierung. Dr. Bernhard Wentz

Information Lifecycle Management (ILM) - neue Speicherkonzepte für die digitale Archivierung. Dr. Bernhard Wentz Information Lifecycle Management (ILM) - neue Speicherkonzepte für die digitale Archivierung Einleitung und Motivation Medizinische IT-Anwendungssysteme komplexe hoch funktionale Systeme Basisfunktionen

Mehr

CentricStor FS. Scale out File Services

CentricStor FS. Scale out File Services CentricStor FS Scale out File Services Richard Schneider Product Marketing Storage 1 Was ist CentricStor FS? CentricStor FS ist ein Speichersystem für das Data Center Zentraler Pool für unstrukturierte

Mehr

Oracle EngineeredSystems

Oracle EngineeredSystems Oracle EngineeredSystems Überblick was es alles gibt Themenübersicht Überblick über die Engineered Systems von Oracle Was gibt es und was ist der Einsatzzweck? Wann machen diese Systeme Sinn? Limitationen

Mehr

Wie überlebt man ein Disaster?

Wie überlebt man ein Disaster? Einige Ideen und Ansätze Themenübersicht Disaster auch hier in Österreich? Kundenenvironments wohin geht die Reise? Ideen und Ansätze Lizensierung nicht vergessen! Disaster auch hier in Österreich? Überschwemmungen

Mehr

Effizienter Einsatz von Flash-Technologien im Data Center

Effizienter Einsatz von Flash-Technologien im Data Center Effizienter Einsatz von Flash-Technologien im Data Center Herbert Bild Solution Marketing Manager Georg Mey Solutions Architect 1 Der Flash-Hype 2 Drei Gründe für den Hype um Flash: 1. Ungebremstes Datenwachstum

Mehr

Virtualisierung auf Mac OS X. Mar3n Bokämper Max Riegel 30. November 2008

Virtualisierung auf Mac OS X. Mar3n Bokämper Max Riegel 30. November 2008 Virtualisierung auf Mac OS X Mar3n Bokämper Max Riegel 30. November 2008 Inhalt Virtualisierung Konfigura3on eines virtuellen Rechners Virtualisierungslösungen für OS X Apple Boot Camp, keine Virtualisierungslösung!

Mehr

VALUESTOR /// MEHRWERT IN DER LANGFRISTIGEN DATENSPEICHERUNG BEST IN DEVELOPMENT AND TECHNOLOGY

VALUESTOR /// MEHRWERT IN DER LANGFRISTIGEN DATENSPEICHERUNG BEST IN DEVELOPMENT AND TECHNOLOGY VALUESTOR /// MEHRWERT IN DER LANGFRISTIGEN DATENSPEICHERUNG BEST IN DEVELOPMENT AND TECHNOLOGY VALUESTOR /// MEHRWERT IN DER LANGFRISTIGEN DATENSICHERUNG Machen Sie sich die Vorteile von Tape zu Nutze,

Mehr

Infrastrukturanalyse Ihr Weg aus dem Datenstau

Infrastrukturanalyse Ihr Weg aus dem Datenstau Waltenhofen * Düsseldorf * Wiesbaden Infrastrukturanalyse Ihr Weg aus dem Datenstau SCALTEL Webinar am 20. Februar 2014 um 16:00 Uhr Unsere Referenten Kurze Vorstellung Stefan Jörg PreSales & Business

Mehr

Mehr Mobilität. Digitale Generation. Vielzahl an Geräten. Schnelllebigkeit. Arbeit und Freizeit verschwimmen. Daten Explosion

Mehr Mobilität. Digitale Generation. Vielzahl an Geräten. Schnelllebigkeit. Arbeit und Freizeit verschwimmen. Daten Explosion Arbeit und Freizeit verschwimmen Mehr Mobilität Digitale Generation Vielzahl an Geräten Daten Explosion Wandel in der IT Schnelllebigkeit Überblick App Services Computing Daten-Dienste Netzwerk Automatisiert

Mehr

Backup & Recovery mit D-Link DSN-6000

Backup & Recovery mit D-Link DSN-6000 Backup & Recovery mit D-Link DSN-6000 Einfach & Effektiv The heart of the network Agenda Allgemeines Backup Strategien Backup-to-Disk Tiered Storage - Hierarchisches Speicher Management DSN-6000 xstack

Mehr

ETERNUS CS800 Datensicherungs-Appliance mit Deduplizierungstechnologie

ETERNUS CS800 Datensicherungs-Appliance mit Deduplizierungstechnologie ETERNUS CS800 Datensicherungs-Appliance mit Deduplizierungstechnologie Betrachten Sie Ihr Tagesgeschäft nur für einen Moment aus einer anderen Perspektive. Wir verwirklichen Ihre IT-Träume. Wie läuft Ihr

Mehr

Die nächsten Schritte auf dem Weg zu 10- GbE-Top-of-Rack-Netzwerken

Die nächsten Schritte auf dem Weg zu 10- GbE-Top-of-Rack-Netzwerken Die nächsten Schritte auf dem Weg zu 10- GbE-Top-of-Rack-Netzwerken Wichtige Überlegungen zur Auswahl von Top-of-Rack-Switches Mithilfe von 10-GbE-Top-of-Rack-Switches können Sie Virtualisierungslösungen

Mehr

Think Fast: Weltweit schnellste Backup-Lösung jetzt auch für Archivierung

Think Fast: Weltweit schnellste Backup-Lösung jetzt auch für Archivierung Think Fast: Weltweit schnellste Backup-Lösung jetzt auch für Archivierung Weltweit schnellste Backup-Systeme Das weltweit erste System für die langfristige Aufbewahrung von Backup- und Archivdaten 1 Meistern

Mehr

Software Defined Storage in der Praxis

Software Defined Storage in der Praxis Software Defined Storage in der Praxis - Vorteile und Nutzen für jede Unternehmensgröße - Torsten Welke Regional Manager Nord 1 Speicherbedarf nimmt weiter rasant zu - aber ohne Nachhaltigkeit - 2 Herausforderungen

Mehr

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG!

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! JUNI 2011 Sehr geehrter Geschäftspartner, (oder die, die es gerne werden möchten) das Thema Virtualisierung oder die Cloud ist in aller Munde wir möchten Ihnen

Mehr

vfabric-daten Big Data Schnell und flexibel

vfabric-daten Big Data Schnell und flexibel vfabric-daten Big Data Schnell und flexibel September 2012 2012 VMware Inc. All rights reserved Im Mittelpunkt: Daten Jeden Morgen wache ich auf und frage mich: Wie kann ich den Datenfluss optimieren,

Mehr

Einblick in die VMware Infrastruktur

Einblick in die VMware Infrastruktur Einblick in die VMware Infrastruktur Rainer Sennwitz Lehrstuhl für Informatik IV Friedrich-Alexander-Universität Erlangen-Nürnberg 4. Juli 2007 Rainer

Mehr

... 64 bit Televaulting

... 64 bit Televaulting Next Generation Backup und Recovery Software... 64 bit Televaulting Kronberg, 07. Mai 2007 Asigra, der Technologieführer im Bereich agentless Backup und Recovery- für Unternehmen und Service Provider,

Mehr

Review Freelancer-Workshop: Fit für Big Data. Mittwoch, 29.04.2015 in Hamburg

Review Freelancer-Workshop: Fit für Big Data. Mittwoch, 29.04.2015 in Hamburg Review Freelancer-Workshop: Fit für Big Data Mittwoch, 29.04.2015 in Hamburg Am Mittwoch, den 29.04.2015, hatten wir von productive-data in Zusammenarbeit mit unserem langjährigen Partner Informatica zu

Mehr

herzlich vsankameleon Anwendungsbeispiel Titelmasterformat durch Klicken bearbeiten willkommen Titelmasterformat durch Klicken bearbeiten

herzlich vsankameleon Anwendungsbeispiel Titelmasterformat durch Klicken bearbeiten willkommen Titelmasterformat durch Klicken bearbeiten herzlich willkommen vsankameleon Anwendungsbeispiel Powered by DataCore & Steffen Informatik vsan? Kameleon? vsan(virtuelles Storage Area Network) Knoten Konzept Titelmasterformat Alle HDD s über alle

Mehr

Editorial 3 1 Storage-Infrastruktur und Datenmanagement optimieren 8

Editorial 3 1 Storage-Infrastruktur und Datenmanagement optimieren 8 Inhalt Editorial 3 1 Storage-Infrastruktur und Datenmanagement optimieren 8 1.1 Ratgeber Storage-Technologien sinnvoll einsetzen 8 1.1.1 Speichervirtualisierung 8 1.1.2 Storage Tiering 9 1.1.3 Thin Provisioning

Mehr

HP P4000 Speichersysteme und Lösungen

HP P4000 Speichersysteme und Lösungen HP P4000 Speichersysteme und Lösungen Rüsten Sie sich für den steigenden Speicherbedarf der Zukunft mit modernen Speichersystemen von HP. Hochverfügbare Lösungen, in denen die einzelnen Knoten nicht nur

Mehr