STORAGE. Themenheft. Informationsmanagement für Unternehmen STORAGE- LÖSUNGEN FÜR BIG DATA KONFIGURIEREN

Größe: px
Ab Seite anzeigen:

Download "STORAGE. Themenheft. Informationsmanagement für Unternehmen STORAGE- LÖSUNGEN FÜR BIG DATA KONFIGURIEREN"

Transkript

1 Informationsmanagement für Unternehmen STORAGE Themenheft STORAGE- LÖSUNGEN FÜR BIG DATA KONFIGURIEREN Data-Warehousing war gestern: bringt konventionelle Storage-Systeme an ihre Grenzen und verlangt nach neuen Konzepten. PLUS: BIG DATA ERFORDERT NEUE ANSÄTZE FÜR STORAGE ARBEITEN MIT BIG DATA: DER STORAGE- ASPEKT BIG-DATA- TECHNOLOGIEN: AUFBEWAHRUNG, PERFORMANCE, KAPAZITÄT EINFÜHRUNG IN DIE BIG-DATA- ANALYTIK WORAUF SIE BEI DER WAHL IHRER BIG-DATA- INFRASTRUKTUR ACHTEN MÜSSEN

2 editorial * rich castagna neue Ansätze Was auch immer Sie darunter verstehen: Für Anwendungen reichen konventionelle Storage-Systeme häufig nicht mehr aus. in die IT-PROFIS VERBRINGEN in diesen Tagen wahrscheinlich mehr Zeit damit, zu definieren, als die dafür nötigen Systeme aufzubauen. Doch das wird sich bald ändern egal was Sie unter diesem immer gebräuchlicheren Ausdruck verstehen. Ursprünglich bezeichnete etwas, womit es hauptsächlich die Branchen Medien, Unterhaltung und Geo-Exploration zu tun hatten: enorm große Dateien, die zwecks Bearbeitung oder Analysen an Arbeitsplatzrechner übertragen werden mussten. Doch noch bevor sich diese Definition in unserem IT-Bewusstsein einnisten konnte, wurde sie auch schon erweitert: Heute umfasst sie auch das andere Ende des Datenspektrums, also Massen an unstrukturierten kleinen Dateien aus einer Vielzahl von Quellen. Das klingt erst einmal ziemlich verwirrend. Doch Terri McClure bringt in diesem Themenheft etwas Licht in das Dunkel der Definitionen: Big Data, so schreibt er, bezeichnet jegliche Datenbestände, mit denen konventionelle IT-Systeme für das Tagesgeschäft aufgrund von Umfang oder Rechenintensität nicht mehr zurechtkommen. 2

3 in die Diese Definition ist ausgesprochen sinnvoll. Sie mag noch weiter gefasst sein als andere aktuelle Konzepte, ermöglicht aber einen pragmatischen Umgang mit dem Thema. Die Diskussion um ist derzeit stark auf die aspekte dieses Themas konzentriert. Storage-Verantwortliche könnten deshalb auf die Idee kommen, dass sie gar nichts damit zu tun haben, all die Daten zu etwas Nützlichem zu machen intelligente Informationen, mit denen Unternehmen ihr Geschäft opt imieren oder erweitern können. Tatsächlich aber spielt Storage eine entscheidende Rolle: Ohne eine solche ist es nicht möglich, aus riesigen Mengen an Rohdaten verwertbare Informationen zu gewinnen. Umgebungen sind derart umfangreich, dass schon bei der Konfiguration der nötigen Storage-Systeme wichtige Entscheidungen zu treffen sind. Letztlich werden dabei schon die Weichen für den Erfolg ihrer gesamten Bemühungen gestellt. Unter versteht man heute wie erwähnt entweder wenige riesige Dateien oder Millionen von kleinen. In beiden Szenarien ist sehr viel erforderlich, doch damit enden die Gemeinsamkeiten auch schon. Konventionelle Storage-Systeme dürften für Zwecke nicht ausreichen: Entweder sie können die Daten nicht effektiv genug zur anwendung befördern, oder sie sind für derart kapazitätsintensive Aufgaben schlicht zu teuer. Bei der Bereitstellung von Storage für ist deshalb neues Denken gefragt, vor allem wenn ältere Architekturen durch Technologien wie Hadoop oder objektbasierte Speicherung infrage gestellt werden. Früher mag größer und schneller ausgereicht haben, um neue Storage-Herausforde- rungen zu meisten. IT-Profis verbringen heutzutage wahrscheinlich mehr Zeit damit, zu definieren, als die nötigen Systeme dafür aufzubauen. Rich Castagna ist Editorial Director // Chefredakteur der Storage Media Group. 3

4 der Storage- Ob es darum geht, zu definieren, Hadoop zu verstehen oder die Folgen großer Datenbestände abzuschätzen: Storage-Profis müssen den Trend genau verstehen. VON TERRI MCCLURE in die HEUTZUTAGE SCHEINT ES fast unmöglich, dem Ausdruck zu entgehen doch eine allgemein gültige Definition, was das eigentlich ist, hat die Branche noch nicht. Die Enterprise Strategy Group (ESG) definiert als Datenbestände, die Grenzen und Größen üblicher Verarbeitungsressourcen übersteigen, sodass ein nicht-konventioneller Ansatz erforderlich ist. Gemeint sind also Datensammlungen, mit denen konventionelle IT-Systeme für das Tagesgeschäft aufgrund von Umfang oder Rechenintensität nicht mehr zurechtkommen. Dabei stoßen die alten Systeme an unterschiedlichsten Fronten an ihre Grenzen: Das Transaktionsvolumen kann so hoch sein, dass konventionelle Storage-Lösungen zum Engpass werden und nicht mehr schnell genug arbeiten. Es fehlt ihnen an Rechenleistung für die hohe Zahl an Lese- und Schreibvorgängen. Manchmal haben sie auch einfach nicht genügend Laufwerke dafür. Viele Anwender behelfen sich bei drohenden Engpässen mit einem Trick namens Short-Stroking : Sie befüllen ihre Festplatten nur teilweise, sodass pro Gigabyte mehr Laufwerke für In- und Outputs zur Ver- 4

5 fügung stehen. Manchmal installieren Anwender auch mehrere Storage-Systeme nebeneinander und behandeln einen Teil ihrer als Reserve. Beides ist natürlich eine teure Lösung, weil man viele Festplatten kaufen muss, die teilweise ungenutzt bleiben. Die Größe der Daten (einzelne Einträge, Dateien oder Objekte) kann dazu führen, dass konventionelle Systeme nicht genügend Durchsatz haben, um hinreichend schnell Daten zur Verfügung zu stellen ihre Bandbreite reicht schlicht nicht mehr aus. Auch in solchen Fällen greifen Organisationen zu Short-Stroking und mehr Festplatten und auch hier nehmen sie damit geringe Auslastung und hohe Kosten in Kauf. Das Gesamtvolumen der Inhalte ist so hoch, dass es die sgrenze konventioneller Storage-Systeme überschreitet ein reines Mengenproblem. Dies führt zu Storage-Wucherung in Form von Dutzenden oder Hunderten von Speicher-Silos mit ebenso vielen Managementoberflächen. Die Folge sind erneut geringe Auslastung und dazu überhöhter Platz-, Strom- und Kühlungsbedarf. in die Wenn diese drei Faktoren zusammenkommen, wird die Lage fast schon bedrohlich. Und tatsächlich ist es durchaus realistisch, dass manchmal riesige Mengen an Lese- und Scheibvorgängen mit massenhaft Daten in enormen Dateigrößen vonnöten sind. HILFREICHE STORAGE-ARCHITEKTUREN Erfreulicherweise haben sich Speicherarchitekturen insofern weiterentwickelt, als sie nun besser mit dem steigenden Datenvolumen von umgehen können. Bei ihren Eigenschaften gibt es Unterschiede im Detail, aber auch Ähnlichkeiten. Am I/O-intensiven Ende des Spektrums mit hohen Transaktionsvolumina sieht die ESG gute Chancen für Architekturen, die sich durch zusätzliche Laufwerke erweitern lassen. Dies ist der traditionelle An- 5

6 in die satz, für den Systeme wie EMC VMAX, Hitachi Data Systems Virtual Storage Platform (VSP) oder IBM DS8000 gut geeignet sind. An der Front der großen Dateien haben die fortschrittlichsten Branchen, die es seit Jahren mit zu tun haben, schon früh mit Storage-Systemen gearbeitet, die auf genügend Bandbreite für große Dateien ausgelegt sind. Hier sind unter anderem Systeme von DataDirect Networks, Ibrix X9000 von Hewlett-Packard, Isilon (inzwischen EMC Isilon) und Panasas zu nennen. Traditionelle Hochskalierung (Scale-Up) bedeutet, dass man irgendwann an eine Grenze stößt. Scale-Out oder horizontale Skalierung dagegen bietet deutlich mehr Flexibilität zur Erhöhung von oder Rechenleistung. Je stärker Umfänge zu einem verbreiteten Phänomen werden, desto mehr Verbreitung finden derartige Systeme. Häufig gibt es dabei eine Mischung aus I/O- und durchsatzintensiven Anforderungen, also sind sowohl Scale-Up als auch Scale-Out erforderlich. An der letzten Front schließlich, beim schieren Datenvolumen, ist ein Trend zu objektbasierten Scale-Out-Speichersystemen zu beobachten. Diese machen es leichter, Milliarden von Datenobjekten innerhalb eines einheitlichen, einfach zu verwaltenden Systems aufzubewahren. Der Vorteil solcher Systeme liegt darin, dass sie die Definition von robusten Metadaten für leichteres Content-Management und Tracking erlauben. Zudem sind sie darauf ausgelegt, mit einfachen, preiswerten Speicherlaufwerken zu arbeiten (ein gutes Beispiel dafür ist die DX6000-Storage-Platform-Serie von Dell). WIE SIEHT ES MIT HADOOP AUS? Kein Artikel über ist vollständig ohne eine Beschäftigung mit Hadoop. Mit dieser Open-Source-Technologie lassen sich Analysedurchläufe ohne exorbitante Kosten beschleunigen (von Wochen auf Stunden oder Minuten). Viele Unternehmen zeigen Interesse daran, zumal für Hadoop oft Standardserver mit günstiger direkt angeschlossener Speicherung (Direct Attached Storage DAS) ausreichen. 6

7 in die Hadoop wird eingesetzt zur Verarbeitung großer Mengen an Daten. Es besteht aus zwei Komponenten: MapReduce und Hadoop Distributed File System (HDFS). (Sehr) einfach ausgedrückt, kümmert sich MapReduce um das Management von Rechenjobs, und das HDFS ist dafür zuständig, wo im Cluster die Daten gespeichert werden. Wenn eine Berechnung gestartet wird, teilt MapReduce sie in Teilaufgaben auf, die parallel erledigt werden können. Im Grunde fragt es beim HDFS an, wo die Daten für jede Teilaufgabe zu finden sind, und übergibt diese Teilaufgabe dann an den Rechenknoten, auf dem die Daten liegen. Auf gewisse Weise werden Berechnung und Daten also zusammengebracht. Die Teilergebnisse werden dann zurück an den MapReduce-Master gemeldet, der sie konsolidiert und das Endergebnis auswirft. Zum Vergleich: Ein konventionelles System bräuchte dafür einen großen und teuren Server mit hoher Rechenleistung, verbunden mit einem großen und teuren Speicher-Array. Es würde alle erforderlichen Daten einlesen, die Analyse durchführen und die Ergebnisse weitgehend seriell ausgeben. Angesichts des hohen Datenvolumens würde es dafür länger brauchen als das Hadoop-basierte MapReduce. Die Unterschiede lassen sich mit einer einfachen Analogie veranschaulichen: Angenommen, 20 Menschen befinden sich in einem Lebensmittelladen und müssen alle dieselbe Schlange an der Kasse durchlaufen. Wenn jeder von ihnen für 200 Dollar einkauft und das Scannen und Zusammenrechnen jeweils zwei Minuten dauert, braucht der einzelne Super-Kassierer zum Einnehmen von 4000 Dollar 40 Minuten. Mit Hadoop dagegen sähe es im Laden so aus: Zehn Kassen werden mit billigen Teilzeitkräften besetzt, die für jede Einzeltransaktion 50 Prozent mehr Zeit (also drei Minuten) brauchen. Um dieselben 20 Kunden zu bedienen, brauchen sie zusammen nur sechs Minuten, der Umsatz liegt aber trotzdem bei 4000 Dollar. Aus geschäftlicher Sicht ist es überaus lohnend, eine Aufgabe in 6 statt in 40 Minuten erledigt zu bekommen. In den gewonnenen 34 Minuten lässt sich dann noch mehr erledigen wie viele weitere Erkenntnisse könnten Sie in dieser Zeit gewinnen und wie viel schneller könnten Sie auf Markttrends reagieren? In dieselbe Situation brin- 7

8 gen Sie Ihre Kollegen vom Management, wenn diese auf die Ergebnisse von Analyseanfragen nicht mehr so lange warten müssen. Hadoop ist nicht perfekt. Cluster-Dateisysteme sind komplex. Ein Großteil dieser Komplexität bleibt dem HDFS-Administrator zwar verborgen, trotzdem kann es einige Zeit kosten, einen Hadoop-Cluster effizient zum Laufen zu bringen. Hinzu kommt, dass es in der aktuellen Version von Apache Hadoop einen Single Point of Failure im HDFS gibt: die Daten-Map (genannt NameNode), in der als Metadaten festgehalten ist, wo all die Daten liegen. Die Behebung dieser Schwäche steht auf der Prioritätenliste für die nächste Hauptversion ganz oben. Einstweilen aber bleibt es dem Administrator überlassen, wie gut die Daten geschützt werden: Die Einstellung zur Daten- Replikation bestimmt darüber, wie viele Mal Daten im Cluster kopiert werden. Die Voreinstellung ist drei, sodass dreimal so viel vorgehalten werden muss, wie wirklich genutzt werden kann. Und das betrifft nur den lokalen Cluster selbst Backups und externes Disaster Recovery (DR) werden von den aktuellen Hadoop-Versionen nicht abgedeckt. Zudem gibt es keine große Auswahl an Fachkräften auf dem Markt, die sich mit Hadoop auskennen. In Unternehmen wie Cloudera, EMC oder MapR wachsen zwar zunehmend Experten heran, doch das dauert seine Zeit. Dieser letzte Punkt sollte nicht auf die leichte Schulter genommen werden: Aktuelle Studien zeigen, dass bei Projekten mit freien Mitarbeitern oder Beratern pro Entwickler und Jahr mit Kosten von Dollar zu rechnen ist. in die GROSSE DATEN, GRÖSSERE WAHRHEITEN Die Liste von Schwächen bei Hadoop, zusammen mit den erhofften Marktchancen im Bereich kommerzieller, ist für große Storage-Anbieter wie EMC, IBM oder NetApp Anlass genug, sich ebenfalls mit zu beschäftigen. Jeder dieser drei hat bereits Storage-Systeme für Hadoop-Umgebungen herausgebracht (oder wird es garantiert noch tun), die mehr Möglichkeiten für Management, Skalierung und Datensicherung bieten als Hadoop selbst. Die meisten bilden einen Ersatz für die HDFS-Speicherschicht mit offenen Schnittstellen (wie NFS und CFS), bei anderen handelt es sich 8

9 in die um eigene Versionen des MapReduce-Frameworks mit verbesserter Performance. Ebenfalls im Angebot sind Funktionen, die Lücken des Open-Source-Systems HDFS schließen, etwa die Fähigkeit, Daten über die Standard-Schnittstellen NFS und CFS mit anderen Anwendungen auszutauschen, oder deutlich verbesserte Datenschutz- und DR-Funktionen. NetApp geht dabei einen radikal anderen Weg als die meisten anderen Anbieter. Das Unternehmen setzt voll auf den offenen HDFS-Standard und die Arbeit mit Datenknoten mit DAS. Statt eines eigenen Dateisystems mit einem Hadoop-Wrapper verwendet Net- App eine Art Turbo für die DAS mit einem via SAS angebundenen einfachen Haufen Festplatten (just a bunch of discs JBOD) auf Grundlage der Low-End-Plattform Engenio. Für die NameNodes kommt eine über NFS angebundene FAS-Box zum Einsatz, die für den Fall eines NameNodes-Ausfalls eine schnelle Recovery erlaubt. Insgesamt stellt dies einen hybriden Das Beste aus beiden Welten- Ansatz dar. Ob der Markt einen Aufschlag für die höhere Verfügbarkeit und das größere Potenzial zur Nutzung von Anwendungen zu zahlen bereit ist oder nicht, muss sich erst noch zeigen die Entwicklung steht noch ziemlich am Anfang. ist Realität, und nicht alles in diesem Bereich lässt sich unter denselben Hut bringen unterschiedliche Arten von verlangen nach unterschiedlichen Storage-Ansätzen. Selbst wenn Sie ein Problem haben und an die genannten Grenzen stoßen, die Ihnen zeigen, dass Sie etwas anders machen sollten: Wenn Sie mit Ihren Lösungsanbietern darüber reden, sollten Sie sich gar nicht erst mit dem Schlagwort aufhalten. Sprechen Sie stattdessen über Ihr Geschäftsproblem und die Anwendungsfälle. Auf diese Weise können Sie Ihre konkreten Anforderungen herausarbeiten, und aus diesen wird sich auch der passende Storage-Ansatz ergeben. n Terri McClure ist Leitende Storage-Analystin bei der Enterprise Strategy Group in Milford im US-Bundesstaat Massachusetts. 9

10 Werkzeuge und Technologien für Archive Die Anforderungen an die Aufbewahrung von Daten bei sind hoch trotzdem muss auch die Echtzeit-Performance stimmen. VON ERIC SLACK in die DER AUSDRUCK BIG DATA wird verwendet (wenn nicht überstrapaziert) zur Beschreibung von Rechenumgebungen mit extremen Anforderungen, die von konventionellen IT-en nur teilweise zu erfüllen sind. Aus diesem Grund sind alternative Lösungen gefragt. In diesem Artikel beschäftigen wir uns mit den Herausforderungen, die für bestehende Storage-en bedeutet, und mit Technologien, die Vorteile für Value-Added Reseller (VARs) bieten. Eine der Definitionen für ergibt sich aus dem Bereich und bezieht sich auf große Pools an Dateien, auf die nach Belieben zugegriffen werden soll. Manchmal sind auch Datenbanken für hochperformante gemeint, oft in Echtzeit, zum Beispiel bei Finanztransaktionen, Internetanwendungen, wissenschaftlichen Analysen, Ereignisprotokollierung etc. Bei diesen Anwendungsfällen geht es also typischerweise um sehr große Zahlen von kleinen Datenobjekten, die für Highspeed-Analysen zur Verfügung gestellt werden müssen. Es gibt noch eine Definition, von uns als Archiv be- 10

11 in die zeichnet. Diese Referenzarchive müssen sehr große Mengen an großen Dateien zugänglich machen und unterstützen damit meist sequenzielle Verarbeitungsabläufe. Dies ist zum Beispiel bei der Postproduktion von Filmen der Fall. Für derartige Daten gibt es hohe Anforderungen an die denn viele der entstehenden Dateien sind ein zum Verkauf vorgesehenes Endprodukt oder regulatorischen Vorgaben unterworfen und müssen mehrere Jahre lang vorgehalten werden. Auch eine Performance-Komponente ist für diese Archivanwendungsfälle von Bedeutung. Illustrieren lässt sich das anhand von Todesfällen von Prominenten: Als Whitney Houston oder Michael Jackson starben, mussten für eine zeitnahe Berichterstattung große Mengen an Videodateien rasch aus viele Jahre umfassenden Archiven gezogen werden. Bei wiederum besteht die Herausforderung darin, genügend IOPS zu ermöglichen, um die Echtzeit-Analysemaschinen schnell genug mit Daten zu versorgen. In beiden Fällen kann die Konsistenz der Im Prinzip übersteigt das dra matische Wachstum der Datenbestände die Leistungsfähigkeit konventioneller en. Performance ein entscheidender Faktor sein bei konventionellen Speicherinfrastrukturen kann es mit wachsendem Umfang schwierig werden, ihre Performance vorauszusagen. an sich ist kein definierendes Merkmal für Anwendungsfälle und doch einer der Gründe dafür, warum es überhaupt eine Diskussion gibt. Im Prinzip übersteigt das dramatische Wachstum der Datenbestände die Leistungsfähigkeit konventioneller en. Zugleich machen die schieren Mengen die Speicherung von kostspielig. Die Skalierung von Speicherinfrastrukturen, oft bis in den Bereich mehrerer Petabytes hinein, muss deshalb bezahlbar gestaltet werden. Als Nächstes werfen wir einen Blick auf einige Technologien und -Produkte, die diese Anforderungen erfüllen sollen. 11

12 in die RAINSTOR Wenn sich die Menge an gespeicherten Daten verringern lässt, verlieren alle anderen Probleme an Brisanz in einem Umfeld gilt dies wahrscheinlich mehr als überall sonst. Komprimierung und Deduplizierung sind zwei Beispiele für diese Strategie; allerdings kann ihre Anwendung bei Datenbanken komplizierter sein als bei einfachen Dateien. Ein Unternehmen, das dieses Problem in den Griff bekommen hat, ist RainStor. Es hat eine gleichnamige Technologie entwickelt, die Datenreduktion in einer strukturierten Umgebung ermöglicht. Rain- Stor erlaubt die Deduplizierung und Speicherung von großen Datenbanksektionen mit einer Verringerung des Volumens von 40 zu 1; Anwender können die komprimierte Datenbank über Standard-SQL- Anfragen durchsuchen, ohne dass eine Rehydrierung der Daten nötig ist. Vor Kurzem hat das Unternehmen auch eine Version seines Produkts für Hadoop-Umgebungen herausgebracht. Sie läuft nativ im Hadoop-Cluster auf Dateien des Hadoop Distributed File System (HDFS) und bietet für SQL-Anfragen oder MapReduce-Analysen ähnliche Werte bei Datenreduktion und Managementeffizienz. GRIDIRON SYSTEMS Für eine bessere Datenbank-Performance kommt eine blockbasierte Cache-Appliance namens TurboCharger von GridIron Systems infrage. Mithilfe von Flash und DRAM in High-Performance-Umgebungen wie Oracle Real Application Clusters (RAC) ermöglicht sie eine Beschleunigung bis um Faktoren von bis zu 10. Anders als traditionelle Caching-Methoden, die auf Metadaten des Dateisystems basieren, schafft GridIron eine auf Heuristik basierende Map von Milliarden Datenblöcken auf dem Backend-Speicher. Dadurch kann TurboCharger prädiktive Analysen an den Daten vornehmen und Blöcke in den Cache laden, bevor sie gebraucht werden. Als echter Cache kann TurboCharger die Belastung von Storage- Systemen um bis zu 90 Prozent reduzieren und die Schreib-Performance um das bis zu Vierfache erhöhen. Das System wird im Netzwerk installiert und ist transparent für Anwendungen am Frontend 12

13 und Speichersysteme am Backend. Es kommt ohne Änderungen an Speichermedien aus und lässt sich bei steigenden Bandbreite-Anforderungen durch das Hinzufügen von zusätzlichen Appliances in die Breite skalieren. in die QUANTUM Beim Archivieren von kann die Herausforderung auch im Management der Dateisystemumgebung und in seiner Skalierung für den Umgang mit einer sehr großen Zahl von Dateien liegen. StorNext von Quantum ist ein heterogenes SAN-Dateisystem, das schnellen geteilten Zugriff über Linux-, Macintosh-, Unix- und Windows-Clientserver in einem SAN ermöglicht. Zusätzlich kann ein SAN-Gatewayserver hochperformante Zugriffsmöglichkeiten für LAN-Clients schaffen. Ein weiterer Teil von StorNext ist der Storage Manager, eine Policy-basierte Archivierungsengine, die Dateien auf unterschiedliche Stufen von Plattenspeichern und, soweit vorhanden, Bandspeicher verteilt. StorNext unterstützt zudem die asynchrone Replizierung von Verzeichnissen zwischen SAN-basierten Clients für den Schutz von Daten sowie eine integrierte Deduplizierung zur Verringerung von Speicher- und Bandbreitenbedarf. CHANCEN BEI BIG DATA Allgemein gesagt, kommen bestehende Storage-en mit den Anforderungen hinsichtlich Performance (IOPS und Streaming), bezahlbarer und Flexibilität nicht zurecht; dies gilt für ebenso wie für Archivierung. Angesichts der Breite dieses Problems werden die meisten Kunden Technologien von mehreren Anbietern benötigen. Gefragt sind deshalb VARs und Systemintegratoren, die ein breites Spektrum an Technologien vertreten und sie zu den effektivsten Lösungen integrieren. Aus diesem Grund bietet einige große Chancen für VARs. n Eric Slack ist Leitender Analyst bei Storage Switzerland. 13

14 verstehen Für Storage-Profis gibt es vier Bereiche, auf die sie sich bei konzentrieren sollten. VON JOHN WEBSTER in die DER MODETREND CLOUD-COMPUTING verliert langsam an Schwung, doch IT-Anbieter haben schon den nächsten gefunden, und der ist noch in voller Fahrt:. Wie bei früheren Hype-Zyklen geht damit einige Verwirrung bei den Anwendern einher, denn viele Anbieter haben ihre ganz eigene Definition dessen, was damit eigentlich gemeint ist. Die stärkste Verwirrung ergibt sich aus der mangelnden Differenzierung zwischen Storage und. Der Begriff stammt ursprünglich aus der Open-Source-Community, in der prozesse entstanden, die schneller und besser skalierbar sein sollten als mit traditionellem Data-Warehousing. Außerdem ging es darum, aus den riesigen Mengen an unstrukturierten Daten, die Websurfer jeden Tag hinterlassen, geschäftlich wertvolle Erkenntnisse zu gewinnen. Storage hängt damit zusammen. Auch hier geht es um die riesigen Mengen an unstrukturierten Daten, die in Unternehmen zu immer größeren Beständen führen. Die hier eingesetzten Technologien allerdings, wie Scale-Out-NAS und objektbasierte Speicherung, gibt es schon seit Jahren, weshalb sie relativ gut verstanden werden. Auf einer sehr einfachen Ebene ist Speicherung nichts 14

15 weiter als Speicherung von enormen Mengen an unstrukturierten Daten aus Anwendungen. Gebraucht wird sie etwa beim Streaming von hochaufgelösten Videos, bei Öl- und Gasexploration oder in der Genforschung bei den üblichen Verdächtigen also. Ein Marketingmanager bei einem großen Storage-Anbieter, der in diesem Bereich bislang weder eine offizielle Position noch Produkte hat, erzählte mir, dass sein Unternehmen darüber nachdenkt, seine künftigen Angebote als Huge Data zu vermarkten. wiederum ist ein Gebiet, das sich durch schnell wachsende Vielfalt auszeichnet. Aus diesem Grund ist es wahrscheinlich gar nicht sinnvoll, sich hier an einer Definition zu versuchen. Nützlich dagegen ist es, die Merkmale zu identifizieren, die alle heute zu gezählten Technologien gleichermaßen auszeichnen. Dies sind unter anderem: in die die Wahrnehmung, dass konventionelle Data-Warehousing- Prozesse zu langsam und zu schwierig zu skalieren sind; die Fähigkeit, Daten aus unterschiedlichen Quellen zu konsolidieren, sowohl strukturierte als auch unstrukturierte; die Erkenntnis, dass es für die Gewinnung von Wert aus Datenquellen wie mobilen Geräten, RFID, dem Web und einer wachsenden Zahl von automatisierten Sensortechnologien entscheidend darauf ankommt, wie schnell die nötigen Informationen vorliegen. Zusätzlich gibt es mindestens vier bedeutende Entwicklungsstränge, die dabei helfen, zu definieren. Dabei handelt es sich um MapReduce, skalierbare Datenbanken, Stream- Verarbeitung in Echtzeit und Appliances. MAPREDUCE Ein guter Ausgangspunkt zur Beschäftigung mit dem Segment Map- Reduce ist Apache Hadoop. Das Konzept dafür stammt aus einem 15

16 in die Paper, das 2004 bei Google entstand. Es beschrieb einen Prozess zur Parallelisierung der Verarbeitung von Webbasierten Daten, genannt MapReduce. Wenig später entstand als Open-Source-Implementation dieses Prozesses Apache Hadoop. Die Community dazu wächst rapide und produziert reihenweise Add-ons, die seinen Einsatz in Rechenzentren von Unternehmen erleichtern. Nutzer von Apache Hadoop bauen üblicherweise eigene parallelisierte Rechen-Cluster aus Standardservern, jeder davon mit eigenem Storage in Form eines kleinen Disk-Arrays oder in letzter Zeit, zwecks besserer zunehmend auch mit Solid-State- Speichern (SSDs). Hier ist oft von shared-nothing -Architekturen die Rede Storage-Area Networks (SAN) oder Network-Attached Storage (NAS) sind zwar skalierbar und robust, gelten aber hinsichtlich der für diese Cluster nötigen I/O-Performance als nicht leistungsfähiger als gewöhnliche Data-Warehouses. Aus diesem Grund ist die Speicherung bei Hadoop als Direct-Attached Storage (DAS) ausgelegt. Allerdings finden als sekundäre Speicher zunehmend auch SAN und NAS Verbreitung. Für potenzielle Hadoop-Nutzer gibt es eine wachsende Zahl an Auswahlmöglichkeiten von reinem Open Source bis zu hochgradig kommerzialisierten Versionen. Auf der Projekt-Website für Hadoop stehen Apache Hadoop und dazugehörige Werkzeuge kostenlos zur Verfügung. Cloudera Inc. bietet eine kommerzielle Version mit firmeneigenen Erweiterungen und Support an. Andere Open-Source- Varianten, etwa die Facebook-Distribution, sind von Cloudera ebenfalls erhältlich. Zu den kommerziellen Versionen zählt auch die von MapR Technologies, die inzwischen in Hadoop-Appliances von EMC Corp. zum Einsatz kommt. SKALIERBARE DATENBANKEN Hadoop zieht zwar die meisten Schlagzeilen auf sich, weil es in der Lage ist, unstrukturierte Daten in einer Data-Warehouse-artigen Umgebung zu verarbeiten. Doch es gibt noch viele weitere interessante Entwicklungen im Bereich. Auch strukturierte Daten bekommen viel Aufmerksamkeit. NoSQL 16

17 etwa ist eine nicht-relationale, verteilte und horizontal skalierbare Sammlung von Open-Source-Datenbankstrukturen für Websites mit hohem Datenaufkommen und Streaming-Medien. Um sie herum ist eine lebhafte und schnell wachsende Community entstanden. Zu ihren dokumentorientierten Implementationen zählen MongoDB (eine Anspielung auf humongous gigantisch) und Terrastore. Eine weitere orientierte Datenbank aus der Open-Source- Community ist SciDB, entwickelt für Anwendungsfälle wie Umweltbeobachtung, Radioastronomie oder Seismologie. Die Anbieter von traditionellen Data-Warehouse-Lösungen sehen diesem Treiben nicht etwa tatenlos zu. Orcale Corp. arbeitet Mit Hilfe von StreamSQL ist es seit 2003 möglich, Echtzeit-Analysen von mehreren Datenströmen gleichzeitig durchzuführen. an next generation -Plattformen, bei denen für Informationsgenerierung in Echtzeit seine plattform und In-Memory-Computing zum Einsatz kommen. Teradata Corp. hat vor Kurzem Aster Data Systems Inc. übernommen, um die SQL-MapReduce-Implementation dieses Unternehmens in sein Produktportfolio aufnehmen zu können. in die STREAM-VERARBEITUNG IN ECHTZEIT Mithilfe von StreamSQL ist es seit 2003 möglich, Echtzeit-Analysen an mehreren Datenströmen gleichzeitig vorzunehmen. Bislang konnte StreamSQL damit erst ein paar kleinere Nischenmärkte bei Finanzdienstleistungen, Überwachung und Monitoring von Telecom- Netzen erschließen. Angesichts des neuerdings wuchernden Interesses an allem, was mit zu tun hat, dürfte StreamSQL bald aber mehr Aufmerksamkeit und Marktchancen bekommen. StreamSQL ist ein Nebenprodukt eines Zweigs der Informatik- Forschung namens Complex Event Processing (CEP), einer Techno- 17

18 logie für die Verarbeitung von Daten aus der physischen Welt mit geringer Latenz. Produkte gibt es hier sowohl von IBM InfoSphere Streams als auch von StreamBase Systems Inc. in die BIG-DATA-APPLIANCES Mit dem Vordringen von in die Rechenzentren gewöhnlicher Unternehmen ergibt sich für Anbieter zudem die Chance, Appliances zusammenzustellen. In diesen werden Server, Netzwerk und Storage so in ein gemeinsames Gehäuse integriert, dass die auf ihnen installierte software schnellere Ergebnisse liefert. Zielgruppe für diese Appliances sind Unternehmenskunden, die vor allem an einfacher Implementation interessiert sind und deren Anforderungen gut dazu passen. Zu den Anbietern in diesem Bereich zählen EMC mit seinen Appliances auf Grundlage der Datenbank-Engine Greenplum, Netezza von IBM, die vor Kurzem angekündigte kommerzielle Hadoop-Version von MapR sowie Oracle und Teradata mit vergleichbaren, vorintegrierten Systemen. BIG-DATA-STORAGE FÜR BIG-DATA-ANALYTIK Wer in der Praxis mit prozessen zu tun hat, steht Shared Storage meist eher feindlich gegenüber. Bevorzugt wird DAS in seinen unterschiedlichen Formen von SSDs bis zu SATA-Festplatten mit hoher, die an parallelen Rechenknoten hängen. Shared-Storage-Architekturen wie SAN und NAS werden meist als zu langsam, zu komplex und vor allem zu teuer wahrgenommen. Diese Eigenschaften sind schlecht vereinbar mit systemen, die hinsichtlich standardisierter und Kosten einiges zu bieten haben. Eines der definierenden Merkmale von ist Informationsgenerierung in Echtzeit oder Beinahe-Echtzeit. Daten im Arbeitsspeicher sind deshalb gut; Daten am anderen Ende einer SAN-Anbindung über Fibre Channel sind nicht gut. Vielleicht am schwersten aber wiegt, dass die Kosten für ein SAN in einer für 18

19 anwendungen nötigen Größenordnung prohibitiv hoch sein können. Trotzdem gibt es auch Argumente, die für Shared Storage bei sprechen. Dabei gibt es als gelungenes Beispiel etwa die Integration der ParAccel Analytic Database (PADB) mit SAN- Storage von NetApp. Entwickler von Storage-Technologien gehen mittlerweile dazu über, Storage nicht mehr als physische Einrichtung zu verstehen, sondern eher als virtuelles und abstraktes Gebilde. Als Folge davon könnten und sollten Praktiker Shared-Storage durchaus als ein Gebiet betrachten, das ihnen gute Dienste leisten kann. Dazu zählen: in die 1. Schutz von Daten und Systemverfügbarkeit: Storagebasierte Kopierfunktionen, die kein Ruhen der Datenbank erfordern, ermöglichen neustartfähige Kopien nach Systemabstürzen oder Fällen von Datenkorruption. 2. Geringerer Zeitaufwand für den Einsatz neuer Anwen- dungen und automatisierte Prozesse: Wenn neue Anwendungen mithilfe von wiederverwendbaren Datenkopien vorbereitet werden können, lassen sie sich schneller zum Laufen bringen. Dies steigert die geschäftliche Agilität. 3. Change-Management: Shared-Storage hat das Potenzial, die Auswirkungen erforderlicher Änderungen und Upgrades auf die Live-Produktionsumgebung zu verringern, weil es die always on -Funktionalität unterstützt. 4. Lebenszyklusmanagement: Systemevolution und der Austausch überholter Anwendungen werden erleichtert, wenn Shared-Storage als Database of Record dient. 5. Kostenersparnis: Die Verwendung von Shared-Storage als Ergänzung zu DAS in einer shared nothing -Architektur verringert die Kosten und Komplexität von Prozessorknoten. 19

20 in die BIG DATA IST EIN BIG DEAL Konventionelles Data-Warehousing ist eine große, aber relativ langsame Quelle von Informationen für die Geschäftsanalytik. Es arbeitet mit begrenzten Datenressourcen und ist angewiesen auf re-iterative Extract-, Transform- und Load-Prozesse (ETL). Heute jedoch wollen Anwender schnellen Zugang zu Informationen, die auf der ständigen Auswertung multipler Datenquellen auf verwertbare Schätze beruhen. Bis zu einem gewissen Grad ist definiert durch die Notwendigkeit, große Datensätze aus unterschiedlichen Quellen zu durchforsten und Informationen in Echtzeit oder Beinahe-Echtzeit zu generieren. bietet eine große Gelegenheit. Heute beschäftigen sich IT-Organisationen mit den oben vorgestellten Technologien, um webbasierte Datenquellen auszuwerten oder um vom Boom bei sozialen Netzwerken zu profitieren. Jedoch bahnt sich bereits eine noch größere Chance an: das Internet der Dinge als neue Datenquelle. Cisco Systems Inc. schätzt, dass es derzeit etwa 35 Milliarden elektronische Geräte gibt, die sich per Kabel oder drahtlos ans Internet anschließen lassen selbst Autohersteller sehen für ihre Fahrzeuge mittlerweile eine Netzanbindung vor. Vernetzte Autos werden zunehmend allgegenwärtig und Millionen von flüchtigen Datenströmen generieren. Bei der Nutzung von vielfältigen Datenquellen wie dem Internet der Dinge werden Technologien gefragt sein, die über traditionelles Data-Warehousing weit hinausgehen. Die eingesetzten Prozesse werden ähnlich funktionieren müssen wie das menschliche Gehirn. Es nimmt riesige Ströme an sensorischen Daten auf und bildet die nötigen Korrelationen, die uns wissen lassen, wo wir sind, was wir tun und letztlich, was wir denken alles in Echtzeit. Genau diese Art der Datenverarbeitung ist es, die auch in der erreicht werden soll. n John Webster trägt als Leitender Partner bei Evaluator Group Inc. zur Forschung des Unternehmens an Datenspeicherung in den Bereichen Hardware, Software und Service-Management bei. 20

Software Defined Storage

Software Defined Storage Software Defined Storage - Wenn Speicher zum Service wird - Copyright 2015 DataCore Software Corp. All Rights Reserved. Copyright 2015 DataCore Software Corp. All Rights Reserved. Über uns... Über 25.000

Mehr

Software Defined Storage in der Praxis

Software Defined Storage in der Praxis Software Defined Storage in der Praxis Jens Gerlach Regional Manager West 1 Der Speichermarkt im Umbruch 1985 2000 Heute Herausforderungen Serverspeicher Serverspeicher Serverspeicher Hyper-konvergente

Mehr

Copyright 2015 DataCore Software Corp. All Rights Reserved. 1

Copyright 2015 DataCore Software Corp. All Rights Reserved. 1 Copyright 2015 DataCore Software Corp. All Rights Reserved. 1 Software Defined Storage - wenn Storage zum Service wird - Jens Gerlach Regional Manager West Copyright 2015 DataCore Software Corp. All Rights

Mehr

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen 01000111101001110111001100110110011001 Volumen 10 x Steigerung des Datenvolumens alle fünf Jahre Big Data Entstehung

Mehr

EMC. Data Lake Foundation

EMC. Data Lake Foundation EMC Data Lake Foundation 180 Wachstum unstrukturierter Daten 75% 78% 80% 71 EB 106 EB 133 EB Weltweit gelieferte Gesamtkapazität Unstrukturierte Daten Quelle März 2014, IDC Structured vs. Unstructured

Mehr

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zettabyte CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zetabyte: analytische Datenbanken Die Datenflut. Analytische Datenbanken: Was ist neu? Analytische Datenbanken:

Mehr

Die Cloud, die für Ihr Unternehmen geschaffen wurde.

Die Cloud, die für Ihr Unternehmen geschaffen wurde. Die Cloud, die für Ihr Unternehmen geschaffen wurde. Das ist die Microsoft Cloud. Jedes Unternehmen ist einzigartig. Ganz gleich, ob im Gesundheitssektor oder im Einzelhandel, in der Fertigung oder im

Mehr

Software oder Appliance basierende Deduplikation Was ist die richtige Wahl? Storagetechnology 2010

Software oder Appliance basierende Deduplikation Was ist die richtige Wahl? Storagetechnology 2010 Software oder Appliance basierende Deduplikation Was ist die richtige Wahl? Storagetechnology 2010 Frank Herold Manager PreSales CEE Quantums Portfolio StorNextSoftware DXiSerie ScalarSerie ManagementTools

Mehr

4 Planung von Anwendungsund

4 Planung von Anwendungsund Einführung 4 Planung von Anwendungsund Datenbereitstellung Prüfungsanforderungen von Microsoft: Planning Application and Data Provisioning o Provision applications o Provision data Lernziele: Anwendungen

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

Big Data Mythen und Fakten

Big Data Mythen und Fakten Big Data Mythen und Fakten Mario Meir-Huber Research Analyst, IDC Copyright IDC. Reproduction is forbidden unless authorized. All rights reserved. About me Research Analyst @ IDC Author verschiedener IT-Fachbücher

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

dsmisi Storage Lars Henningsen General Storage

dsmisi Storage Lars Henningsen General Storage dsmisi Storage dsmisi MAGS Lars Henningsen General Storage dsmisi Storage Netzwerk Zugang C Zugang B Zugang A Scale-Out File System dsmisi Storage Netzwerk Zugang C Zugang B Zugang A benötigt NFS oder

Mehr

Hitachi File & Content Services: Hitachi NAS Plattform. Uwe Angst NAS Business Manager

Hitachi File & Content Services: Hitachi NAS Plattform. Uwe Angst NAS Business Manager Hitachi File & Content Services: Hitachi NAS Plattform Uwe Angst NAS Business Manager 1 Hitachi, Ltd. (NYSE:HIT/TSE:6501) Einer der One of the weltgrössten integrierten Elektronikkonzerne Gegründet 1910

Mehr

FACTSHEET. Backup «ready to go»

FACTSHEET. Backup «ready to go» FACTSHEET Backup «ready to go» Backup «ready to go» für Ihre Virtualisierungs-Umgebung Nach wie vor werden immer mehr Unternehmensanwendungen und -daten auf virtuelle Maschinen verlagert. Mit dem stetigen

Mehr

WICHTIGE GRÜNDE FÜR EMC FÜR DAS ORACLE-LIFECYCLE-MANAGEMENT

WICHTIGE GRÜNDE FÜR EMC FÜR DAS ORACLE-LIFECYCLE-MANAGEMENT WICHTIGE GRÜNDE FÜR EMC FÜR DAS ORACLE-LIFECYCLE-MANAGEMENT ÜBERBLICK ORACLE-LIFECYCLE-MANAGEMENT Flexibilität AppSync bietet in das Produkt integrierte Replikationstechnologien von Oracle und EMC, die

Mehr

Big Data Hype und Wirklichkeit Bringtmehrauchmehr?

Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Günther Stürner, Vice President Sales Consulting 1 Copyright 2011, Oracle and/or its affiliates. All rights Überschrift 2 Copyright 2011, Oracle and/or

Mehr

WISSENSWERTES ÜBER WINDOWS SCALE-OUT FILE SERVER

WISSENSWERTES ÜBER WINDOWS SCALE-OUT FILE SERVER WISSENSWERTES ÜBER WINDOWS SCALE-OUT FILE SERVER AGENDA 01 File Server Lösungen mit Windows Server 2012 R2 02 Scale-out File Server 03 SMB 3.0 04 Neue File Server Features mit Windows Server 2016 05 Storage

Mehr

Test zur Bereitschaft für die Cloud

Test zur Bereitschaft für die Cloud Bericht zum EMC Test zur Bereitschaft für die Cloud Test zur Bereitschaft für die Cloud EMC VERTRAULICH NUR ZUR INTERNEN VERWENDUNG Testen Sie, ob Sie bereit sind für die Cloud Vielen Dank, dass Sie sich

Mehr

Big Data Herausforderungen für Rechenzentren

Big Data Herausforderungen für Rechenzentren FINANCIAL INSTITUTIONS ENERGY INFRASTRUCTURE, MINING AND COMMODITIES TRANSPORT TECHNOLOGY AND INNOVATION PHARMACEUTICALS AND LIFE SCIENCES Big Data Herausforderungen für Rechenzentren RA Dr. Flemming Moos

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

Oracle Automatic Storage Management (ASM) Best Practices

Oracle Automatic Storage Management (ASM) Best Practices Oracle Automatic Storage Management (ASM) Best Practices Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 Agenda ASM Funktionalität und Architektur Storage Management

Mehr

Magirus der IT-Infrastruktur und -Lösungsanbieter. Herzlich willkommen! 17.4. München 26.4. Düsseldorf. Seite 1. 03.5. Frankfurt

Magirus der IT-Infrastruktur und -Lösungsanbieter. Herzlich willkommen! 17.4. München 26.4. Düsseldorf. Seite 1. 03.5. Frankfurt Herzlich willkommen! 17.4. München 26.4. Düsseldorf Seite 1 03.5. Frankfurt Optimierung von IT-Infrastrukturen durch Serverund Storage-Virtualisierung IT-Infrastruktur- und -Lösungsanbieter Produkte, Services

Mehr

Heterogenes Speichermanagement mit V:DRIVE

Heterogenes Speichermanagement mit V:DRIVE Heterogenes Speichermanagement mit V:DRIVE V:DRIVE - Grundlage eines effizienten Speichermanagements Die Datenexplosion verlangt nach innovativem Speichermanagement Moderne Businessprozesse verlangen auf

Mehr

virtualization and clustering made simple OSL AKTUELL 2015

virtualization and clustering made simple OSL AKTUELL 2015 virtualization and clustering made simple OSL AKTUELL 2015 Schöneiche bei Berlin, 22. April 2015 Über OSL Entwicklung von Infrastruktursoftware (vom Treiber bis zur Oberfläche) im Umfeld von Rechenzentren

Mehr

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick:

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Red Hat Storage Server Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Offene Software Lösung für Storage Ansprache über einen globalen Namensraum Betrachtet Storage als einen virtualisierten

Mehr

Die Jagd nach Backup-Duplikaten wird jetzt noch effektiver. DXi4700 Deduplizierungs-Appliance

Die Jagd nach Backup-Duplikaten wird jetzt noch effektiver. DXi4700 Deduplizierungs-Appliance Die Jagd nach Backup-Duplikaten wird jetzt noch effektiver DXi4700 Deduplizierungs-Appliance Vielleicht die effizienteste, günstigste und leistungsfähigste Die Appliance setzt branchenweit neue Maßstäbe

Mehr

Vorstellung SimpliVity. Tristan P. Andres Senior IT Consultant

Vorstellung SimpliVity. Tristan P. Andres Senior IT Consultant Vorstellung SimpliVity Tristan P. Andres Senior IT Consultant Agenda Wer ist SimpliVity Was ist SimpliVity Wie funktioniert SimpliVity Vergleiche vsan, vflash Read Cache und SimpliVity Gegründet im Jahr

Mehr

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Seit Microsoft Exchange Server 2010 bieten sich für Unternehmen gleich zwei mögliche Szenarien an, um eine rechtskonforme Archivierung

Mehr

Oracle Database 10g Die RAC Evolution

Oracle Database 10g Die RAC Evolution Oracle Database 10g Die RAC Evolution Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 RAC-Revolution, RAC-Evolution & Computing Oracle8i mit OPS Oracle9i Rel.

Mehr

Effizienter Einsatz von Flash-Technologien im Data Center

Effizienter Einsatz von Flash-Technologien im Data Center Effizienter Einsatz von Flash-Technologien im Data Center Herbert Bild Solution Marketing Manager Georg Mey Solutions Architect 1 Der Flash-Hype 2 Drei Gründe für den Hype um Flash: 1. Ungebremstes Datenwachstum

Mehr

Information Lifecycle Management (ILM) - neue Speicherkonzepte für die digitale Archivierung. Dr. Bernhard Wentz

Information Lifecycle Management (ILM) - neue Speicherkonzepte für die digitale Archivierung. Dr. Bernhard Wentz Information Lifecycle Management (ILM) - neue Speicherkonzepte für die digitale Archivierung Einleitung und Motivation Medizinische IT-Anwendungssysteme komplexe hoch funktionale Systeme Basisfunktionen

Mehr

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data: Nutzen und Anwendungsszenarien CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data steht für den unaufhaltsamen Trend, dass immer mehr Daten in Unternehmen anfallen und von

Mehr

WILLKOMMEN 100.000. Quantum ist der weltweit GRÖSSTE Spezialist für Backup, Recovery und Archivierung von Daten.

WILLKOMMEN 100.000. Quantum ist der weltweit GRÖSSTE Spezialist für Backup, Recovery und Archivierung von Daten. 85 der Fortune 100-Unternehmen arbeiten mit Quantum 10 -mal Produkt des Jahres WILLKOMMEN Quantum ist der weltweit GRÖSSTE Spezialist für Backup, Recovery und Archivierung von Daten. 33 Jahre Branchenerfahrung

Mehr

Dunkel Cloud Storage. Der sichere Cloud-Speicher für Unternehmen

Dunkel Cloud Storage. Der sichere Cloud-Speicher für Unternehmen Dunkel Cloud Storage Der sichere Cloud-Speicher für Unternehmen Was ist Dunkel Cloud Storage? Dunkel Cloud Storage (DCS) stellt Ihnen Speicherplatz nach Bedarf zur Verfügung, auf den Sie jederzeit über

Mehr

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2.

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2. Cloud Computing Frank Hallas und Alexander Butiu Universität Erlangen Nürnberg, Lehrstuhl für Hardware/Software CoDesign Multicorearchitectures and Programming Seminar, Sommersemester 2013 1. Definition

Mehr

Anforderungen im Datenmanagement treiben den Wechsel zu 2,5-Zoll- Festplatten im Unternehmenseinsatz voran

Anforderungen im Datenmanagement treiben den Wechsel zu 2,5-Zoll- Festplatten im Unternehmenseinsatz voran Anforderungen im Datenmanagement treiben den Wechsel zu 2,5-Zoll- Festplatten im Unternehmenseinsatz voran Die weltweite Informationsgesellschaft entwickelt einen gewaltigen Appetit nach Speicherkapazität:

Mehr

Das perfekte Rechenzentrum mit PernixData Architect & FVP

Das perfekte Rechenzentrum mit PernixData Architect & FVP Das perfekte Rechenzentrum mit PernixData Architect & FVP Auf der Reise zu einem RZ ohne Performance Probleme Patrick Schulz - Systems Engineer pschulz@pernixdata.com Twitter: @PatrickSchulz1 Blog: www.vtricks.com

Mehr

PVFS (Parallel Virtual File System)

PVFS (Parallel Virtual File System) Management grosser Datenmengen PVFS (Parallel Virtual File System) Thorsten Schütt thorsten.schuett@zib.de Management grosser Datenmengen p.1/?? Inhalt Einführung in verteilte Dateisysteme Architektur

Mehr

White. Paper. Die Enterprise Hadoop-Lösung von EMC. Isilon Scale-out-NAS und Greenplum HD. Februar 2012

White. Paper. Die Enterprise Hadoop-Lösung von EMC. Isilon Scale-out-NAS und Greenplum HD. Februar 2012 White Paper Die Enterprise Hadoop-Lösung von EMC Isilon Scale-out-NAS und Greenplum HD Von Julie Lockner, Senior Analyst, und Terri McClure, Senior Analyst Februar 2012 Dieses ESG White Paper wurde von

Mehr

Die richtige Cloud für Ihr Unternehmen.

Die richtige Cloud für Ihr Unternehmen. Die richtige Cloud für Ihr Unternehmen. Das ist die Microsoft Cloud. Jedes einzelne Unternehmen ist einzigartig. Ob Gesundheitswesen oder Einzelhandel, Produktion oder Finanzwesen keine zwei Unternehmen

Mehr

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN CLOUD-ENTWICKLUNG: BESTE METHODEN 1 Cloud-basierte Lösungen sind auf dem IT-Markt immer weiter verbreitet und werden von immer mehr

Mehr

... 64 bit Televaulting

... 64 bit Televaulting Next Generation Backup und Recovery Software... 64 bit Televaulting Kronberg, 07. Mai 2007 Asigra, der Technologieführer im Bereich agentless Backup und Recovery- für Unternehmen und Service Provider,

Mehr

Storage as a Service im DataCenter

Storage as a Service im DataCenter Storage as a Service im DataCenter Agenda Definition Storage as a Service Storage as a Service und IT-Sicherheit Anwendungsmöglichkeiten und Architektur einer Storage as a Service Lösung Datensicherung

Mehr

TIM AG. NetApp @ BASYS. Dipl. Informatiker (FH) Harald Will Consultant

TIM AG. NetApp @ BASYS. Dipl. Informatiker (FH) Harald Will Consultant NetApp @ BASYS Dipl. Informatiker (FH) Harald Will Consultant Organisatorisch Teilnehmerliste Agenda NetApp @ BASYS Data ONTAP Features cdot die neue Architektur Flash die neue Technologie Live Demo Agenda

Mehr

Big Data in der Forschung

Big Data in der Forschung Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die

Mehr

Tutorial Speichernetze

Tutorial Speichernetze Tutorial Speichernetze Speichervirtualisierung Speichernetze Grundlagen und Einsatz von Fibre Channel SAN, NAS, iscsi und InfiniBand dpunkt.verlag 2003 Agenda Probleme in Speichernetzen Speichervirtualisierung

Mehr

16.11.2010 HOTEL ARTE, OLTEN

16.11.2010 HOTEL ARTE, OLTEN INFONET DAY 2010 16.11.2010 HOTEL ARTE, OLTEN STORAGE DESIGN 1 X 1 FÜR EXCHANGE 2010 WAGNER AG Martin Wälchli martin.waelchli@wagner.ch WAGNER AG Giuseppe Barbagallo giuseppe.barbagallo@wagner.ch Agenda

Mehr

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar!

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar! Clouds Wolkig bis Heiter Erwartungen der Nutzer Er ist verwöhnt! Verfügbarkeit Viele Anwendungen Intuitive Interfaces Hohe Leistung Er ist nicht dankbar! Mehr! Mehr! Mehr! Moore 1 Erwartungen der Entwickler

Mehr

Hyper-Converged - Weniger ist mehr!

Hyper-Converged - Weniger ist mehr! Hyper-Converged - Weniger ist mehr! oder wenn 2 > 3 ist! Name Position 1 Rasches Wachstum bei Hyper-Konvergenz Starke Marktprognosen für integrierte Systeme (Konvergent und Hyper-Konvergent) - 50 % jährlich

Mehr

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 0 Es TOP 10 DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 wird ein wichtiges Jahr für BIG (Business Intelligence Growth) 2012 war ein fantastisches Jahr für Business Intelligence! Die biedere alte

Mehr

EMC VPLEX-PRODUKTREIHE

EMC VPLEX-PRODUKTREIHE EMC VPLEX-PRODUKTREIHE Kontinuierliche Verfügbarkeit und Datenmobilität innerhalb von und über Rechenzentren hinweg KONTINUIERLICHE VERFÜGBARKEIT UND DATENMOBILITÄT FÜR GESCHÄFTSKRITISCHE ANWENDUNGEN Moderne

Mehr

sedex-client Varianten für den Betrieb in einer hoch verfügbaren

sedex-client Varianten für den Betrieb in einer hoch verfügbaren Département fédéral de l'intérieur DFI Office fédéral de la statistique OFS Division Registres Team sedex 29.07.2014, version 1.0 sedex-client Varianten für den Betrieb in einer hoch verfügbaren Umgebung

Mehr

FLASHRECOVER SNAPSHOTS. Sofortige, unlimitierte Snapshots, speziell für 100 % Flash-Speicherung

FLASHRECOVER SNAPSHOTS. Sofortige, unlimitierte Snapshots, speziell für 100 % Flash-Speicherung FLASHRECOVER SNAPSHOTS Sofortige, unlimitierte Snapshots, speziell für 100 % Flash-Speicherung FLASHRECOVER SNAPSHOTS BIETEN EFFIZIENTE, SKALIERBARE UND LEICHT ZU VERWALTENDE SNAPSHOTS OHNE KOMPROMISSE

Mehr

GESCHÄFTSKRITISCHE ORACLE- UMGEBUNGEN MIT VMAX 3

GESCHÄFTSKRITISCHE ORACLE- UMGEBUNGEN MIT VMAX 3 GESCHÄFTSKRITISCHE ORACLE- UMGEBUNGEN MIT VMAX 3 GESCHÄFTSKRITISCHE GRUNDLAGEN Leistungsstark Hybridspeicher mit flashoptimierten Performance-Service-Levels nach Maßfür geschäftskritische Oracle Workloads;

Mehr

Klicken. Microsoft. Ganz einfach.

Klicken. Microsoft. Ganz einfach. EMC UNIFIED STORAGE FÜR VIRTUALISIERTE MICROSOFT- ANWENDUNGEN Klicken. Microsoft. Ganz einfach. Microsoft SQL Server Microsoft SQL Server-Datenbanken bilden die Basis für die geschäftskritischen Anwendungen

Mehr

Wie unterstützt EMC mit Automatisierung die Anforderungen der Server Virtualisierung?

Wie unterstützt EMC mit Automatisierung die Anforderungen der Server Virtualisierung? Wie unterstützt EMC mit Automatisierung die Anforderungen der Server Virtualisierung? Joachim Rapp Partner Technology Consultant 1 Automation in der Speicher-Plattform Pooling Tiering Caching 2 Virtualisierung

Mehr

Dell Data Protection Solutions Datensicherungslösungen von Dell

Dell Data Protection Solutions Datensicherungslösungen von Dell Dell Data Protection Solutions Datensicherungslösungen von Dell André Plagemann SME DACH Region SME Data Protection DACH Region Dell Softwarelösungen Vereinfachung der IT. Minimierung von Risiken. Schnellere

Mehr

Veränderung der Speicherlandschaft durch Speicher-Virtualisierung

Veränderung der Speicherlandschaft durch Speicher-Virtualisierung Veränderung der Speicherlandschaft durch Speicher-Virtualisierung Andreas Sänger Channel Account Manager 1 Speicherbedarf nimmt weiter rasant zu - aber ohne Nachhaltigkeit - 2 Herausforderungen der Speicherarchitekturen

Mehr

Backup- und Replikationskonzepte. SHE Informationstechnologie AG Patrick Schulz, System Engineer

Backup- und Replikationskonzepte. SHE Informationstechnologie AG Patrick Schulz, System Engineer Backup- und Replikationskonzepte SHE Informationstechnologie AG Patrick Schulz, System Engineer Übersicht Vor dem Kauf Fakten zur Replizierung Backup to Agentless Backups VMware Data Protection Dell/Quest

Mehr

PROFI UND NUTANIX. Portfolioerweiterung im Software Defined Data Center

PROFI UND NUTANIX. Portfolioerweiterung im Software Defined Data Center PROFI UND NUTANIX Portfolioerweiterung im Software Defined Data Center IDC geht davon aus, dass Software-basierter Speicher letztendlich eine wichtige Rolle in jedem Data Center spielen wird entweder als

Mehr

Zuerst zu Open Source wechseln

Zuerst zu Open Source wechseln Zuerst zu Open Source wechseln Zuerst zu Open Source wechseln Inhaltsverzeichnis Zuerst zu Open Source wechseln... 3 In die Mitte.... 4 Veränderungen in der Wirtschaftlichkeit der IT.... 6 2 Zuerst zu

Mehr

Oracle EngineeredSystems

Oracle EngineeredSystems Oracle EngineeredSystems Überblick was es alles gibt Themenübersicht Überblick über die Engineered Systems von Oracle Was gibt es und was ist der Einsatzzweck? Wann machen diese Systeme Sinn? Limitationen

Mehr

Von null auf 100. Mit Acquia Site Factory bauen Sie großartige Digital Experiences mit der Geschwindigkeit des Internets

Von null auf 100. Mit Acquia Site Factory bauen Sie großartige Digital Experiences mit der Geschwindigkeit des Internets Von null auf 100 Mit Acquia Site Factory bauen Sie großartige Digital Experiences mit der Geschwindigkeit des Internets Von null auf 100 Mit Acquia Site Factory bauen Sie großartige Digital Experiences

Mehr

Think Fast: Weltweit schnellste Backup-Lösung jetzt auch für Archivierung

Think Fast: Weltweit schnellste Backup-Lösung jetzt auch für Archivierung Think Fast: Weltweit schnellste Backup-Lösung jetzt auch für Archivierung Weltweit schnellste Backup-Systeme Das weltweit erste System für die langfristige Aufbewahrung von Backup- und Archivdaten 1 Meistern

Mehr

NST6000MC TM METRO- SPEICHER-CLUSTER

NST6000MC TM METRO- SPEICHER-CLUSTER DATENBLATT NST6000MC TM METRO- SPEICHER-CLUSTER Leistung, Skalierbarkeit, hohe Verfügbarkeit und Disaster Recovery NEXSAN NST6000MC TM -CONTROLLER-KNOTEN LEISTUNGSTRÄGER: UNIFIED-HYBRID-SPEICHER NST6000MC:

Mehr

Die Public Cloud als Königsweg

Die Public Cloud als Königsweg Die Public Cloud als Königsweg Die Public Cloud als Königsweg 2 Die Public Cloud erscheint auf dem Radarschirm aller CIOs, die künftige Computerstrategien für Ihr Unternehmen planen. Obwohl die Public

Mehr

Big Data Informationen neu gelebt

Big Data Informationen neu gelebt Seminarunterlage Version: 1.01 Copyright Version 1.01 vom 21. Mai 2015 Dieses Dokument wird durch die veröffentlicht. Copyright. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen

Mehr

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG!

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! JUNI 2011 Sehr geehrter Geschäftspartner, (oder die, die es gerne werden möchten) das Thema Virtualisierung oder die Cloud ist in aller Munde wir möchten Ihnen

Mehr

Jetzt von 7-Mode nach cdot migrieren!

Jetzt von 7-Mode nach cdot migrieren! Distribution Partner Jetzt von 7-Mode nach cdot migrieren! Sind die NetApp-Umgebungen Ihrer Kunden auf dem neuesten Stand der Technik? Das neue Betriebssystem von NetApp, Clustered Data ONTAP (kurz cdot),

Mehr

Infrastrukturanalyse Ihr Weg aus dem Datenstau

Infrastrukturanalyse Ihr Weg aus dem Datenstau Waltenhofen * Düsseldorf * Wiesbaden Infrastrukturanalyse Ihr Weg aus dem Datenstau SCALTEL Webinar am 20. Februar 2014 um 16:00 Uhr Unsere Referenten Kurze Vorstellung Stefan Jörg PreSales & Business

Mehr

MapReduce und Datenbanken Thema 15: Strom bzw. Onlineverarbeitung mit MapReduce

MapReduce und Datenbanken Thema 15: Strom bzw. Onlineverarbeitung mit MapReduce MapReduce Jan Kristof Nidzwetzki MapReduce 1 / 17 Übersicht 1 Begriffe 2 Verschiedene Arbeiten 3 Ziele 4 DEDUCE: at the intersection of MapReduce and stream processing Beispiel 5 Beyond online aggregation:

Mehr

EMC VPLEX-PRODUKTREIHE

EMC VPLEX-PRODUKTREIHE EMC VPLEX-PRODUKTREIHE Kontinuierliche Verfügbarkeit und Datenmobilität innerhalb von und über Rechenzentren hinweg KONTINUIERLICHE VERFÜGBARKEIT UND DATENMOBILITÄT FÜR GESCHÄFTSKRITISCHE ANWENDUNGEN Moderne

Mehr

Desktopvirtualisierung 2009 ACP Gruppe

Desktopvirtualisierung 2009 ACP Gruppe Konsolidieren Optimieren Automatisieren Desktopvirtualisierung Was beschäftigt Sie Nachts? Wie kann ich das Desktop- Management aufrechterhalten oder verbessern, wenn ich mit weniger mehr erreichen soll?

Mehr

IT-Lösungsplattformen

IT-Lösungsplattformen IT-Lösungsplattformen - Server-Virtualisierung - Desktop-Virtualisierung - Herstellervergleiche - Microsoft Windows 2008 für KMU s Engineering engineering@arcon.ch ABACUS Kundentagung, 20.11.2008 1 Agenda

Mehr

egs Storage Offensive

egs Storage Offensive egs Storage Offensive Seit mittlerweile 5 Jahren können wir eine enge Partnerschaft zwischen der egs Netzwerk und Computersysteme GmbH und dem führenden Anbieter im Bereich Datenmanagement NetApp vorweisen.

Mehr

Albert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen

Albert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen Open Source professionell einsetzen 1 Mein Background Ich bin überzeugt von Open Source. Ich verwende fast nur Open Source privat und beruflich. Ich arbeite seit mehr als 10 Jahren mit Linux und Open Source.

Mehr

Buildfrei skalieren für Big Data mit Z2

Buildfrei skalieren für Big Data mit Z2 Buildfrei skalieren für Big Data mit Z2 Henning Blohm ZFabrik Software KG 5.6.2013 1 Teil 1: Buildfrei entwickeln und skalieren Teil 2: Big Data, Cloud, und wie es zusammenpasst 2 1. Teil BUILDFREI ENTWICKELN

Mehr

Der PC im PC: Virtualisierung

Der PC im PC: Virtualisierung Der PC im PC: Virtualisierung Virtual Box installieren Virtual Box unter https://www.virtualbox.org/wiki/downloads downloaden und wie normales Programm installieren (Admin-Rechte erforderlich) Virtuelle

Mehr

Dedup-Technik wie funktioniert es?

Dedup-Technik wie funktioniert es? Dedup-Technik wie funktioniert es? v.1.3. Stand: Oktober 2010 Wiesbaden Deduplizierung Wie funktioniert es? 2 Inhalt Was ist Deduplizierung? Was bewirkt Deduplizierung? Source- Target- und Speichermanagement-Deduplizierung

Mehr

Geplante Speicherinfrastruktur der Universität Bielefeld

Geplante Speicherinfrastruktur der Universität Bielefeld Geplante Speicherinfrastruktur der Inhalt: 1 Speichertechnologien 2 Motivation 3 Anforderungen 4 Vorgehensweise 5 Mögliche Lösung Speichertechn.: Direct Attached Storage (DAS) Bisher eingesetzte Technologie

Mehr

Professor Windows April 2004 Liebe auf den ersten Klick (Schattenkopien unter Windows Server 2003)

Professor Windows April 2004 Liebe auf den ersten Klick (Schattenkopien unter Windows Server 2003) Professor Windows April 2004 Liebe auf den ersten Klick (Schattenkopien unter Windows Server 2003) Von Professor Windows und Erez Paz, Rapid Adoption Manager, Microsoft Israel Korrektur: Paul Luber, Program

Mehr

Storage-Trends am LRZ. Dr. Christoph Biardzki

Storage-Trends am LRZ. Dr. Christoph Biardzki Storage-Trends am LRZ Dr. Christoph Biardzki 1 Über das Leibniz-Rechenzentrum (LRZ) Seit 50 Jahren Rechenzentrum der Bayerischen Akademie der Wissenschaften IT-Dienstleister für Münchner Universitäten

Mehr

Veränderungen von. Erster Kunde implementiert Innovation. Vorteil im Wettbewerb. Zweiter Kunde implementiert Innovation

Veränderungen von. Erster Kunde implementiert Innovation. Vorteil im Wettbewerb. Zweiter Kunde implementiert Innovation Veränderungen von Erster Kunde implementiert Innovation Vorteil im Wettbewerb Zweiter Kunde implementiert Innovation Dritter Kunde implementiert Innovation Zeit Fokussierung der IT Ausgaben Hier macht

Mehr

Hochverfügbarkeit mit Windows Server vnext. Carsten Rachfahl Microsoft Hyper-V MVP

Hochverfügbarkeit mit Windows Server vnext. Carsten Rachfahl Microsoft Hyper-V MVP Hochverfügbarkeit mit Windows Server vnext Carsten Rachfahl Microsoft Hyper-V MVP Carsten Rachfahl www.hyper-v-server.de Roling Cluster Upgrade Herausforderung: Update eines Failover Clusters ohne Downtime

Mehr

Living Lab Big Data Konzeption einer Experimentierplattform

Living Lab Big Data Konzeption einer Experimentierplattform Living Lab Big Data Konzeption einer Experimentierplattform Dr. Michael May Berlin, 10.12.2012 Fraunhofer-Institut für Intelligente Analyseund Informationssysteme IAIS www.iais.fraunhofer.de Agenda n Ziele

Mehr

Neue Speicherklassen Backup und Archive to Disk

Neue Speicherklassen Backup und Archive to Disk Neue Speicherklassen Backup und Archive to Disk Neue Speicherklassen Backup to Disk 1. Vorteile gegenüber herkömmlichen Band-Backups 2. Operationale Betrachtung 3. Finanzielle Betrachtung Archive to Disk

Mehr

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data Herausforderungen und Chancen für Controller ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC BARC: Expertise für datengetriebene Organisationen Beratung Strategie

Mehr

Der starke Partner für Ihre IT-Umgebung.

Der starke Partner für Ihre IT-Umgebung. Der starke Partner für Ihre IT-Umgebung. Leistungsfähig. Verlässlich. Mittelständisch. www.michael-wessel.de IT-Service für den Mittelstand Leidenschaft und Erfahrung für Ihren Erfolg. Von der Analyse

Mehr

herzlich vsankameleon Anwendungsbeispiel Titelmasterformat durch Klicken bearbeiten willkommen Titelmasterformat durch Klicken bearbeiten

herzlich vsankameleon Anwendungsbeispiel Titelmasterformat durch Klicken bearbeiten willkommen Titelmasterformat durch Klicken bearbeiten herzlich willkommen vsankameleon Anwendungsbeispiel Powered by DataCore & Steffen Informatik vsan? Kameleon? vsan(virtuelles Storage Area Network) Knoten Konzept Titelmasterformat Alle HDD s über alle

Mehr

EMC ISILON & TSM. Hans-Werner Rektor Advisory System Engineer Unified Storage Division. Oktober 2013

EMC ISILON & TSM. Hans-Werner Rektor Advisory System Engineer Unified Storage Division. Oktober 2013 EMC ISILON & TSM Hans-Werner Rektor Advisory System Engineer Unified Storage Division Oktober 2013 1 Tivoli Storage Manager - Überblick Grundsätzliche Technologie Incremental Forever Datensicherungsstrategie

Mehr

RAID. Name: Artur Neumann

RAID. Name: Artur Neumann Name: Inhaltsverzeichnis 1 Was ist RAID 3 1.1 RAID-Level... 3 2 Wozu RAID 3 3 Wie werden RAID Gruppen verwaltet 3 3.1 Software RAID... 3 3.2 Hardware RAID... 4 4 Die Verschiedenen RAID-Level 4 4.1 RAID

Mehr

HYBRID CLOUD IN DEUTSCHLAND 2015/16

HYBRID CLOUD IN DEUTSCHLAND 2015/16 Fallstudie: Microsoft Deutschland GmbH IDC Multi-Client-Projekt HYBRID CLOUD IN DEUTSCHLAND 2015/16 Mit hybriden IT-Landschaften zur Digitalen Transformation? MICROSOFT DEUTSCHLAND GMBH Fallstudie: Telefónica

Mehr

VMware vsphere 6.0 Neuigkeiten und neue Features

VMware vsphere 6.0 Neuigkeiten und neue Features VMware vsphere 6.0 Neuigkeiten und neue Features Präsentation 30. Juni 2015 1 Diese Folien sind einführendes Material für ein Seminar im Rahmen der Virtualisierung. Für ein Selbststudium sind sie nicht

Mehr

MySQL Cluster. Kai Voigt MySQL AB kai@mysql.com. Kiel, 17. Februar 2006

MySQL Cluster. Kai Voigt MySQL AB kai@mysql.com. Kiel, 17. Februar 2006 MySQL Cluster Kai Voigt MySQL AB kai@mysql.com Kiel, 17. Februar 2006 1 Agenda Warum? Wie? Wie genau? Was sonst? 2 Warum? 3 Kosten runter Hochverfügbarkeit (99,999%) Redundante Daten und Systeme Wiederherstellung

Mehr

Oracle Hot Standby. XE, SEOne, SE. Maximum Performance Mode. WIN, Linux, Unix Einfache Lösung. bis zu 10 Standby DB

Oracle Hot Standby. XE, SEOne, SE. Maximum Performance Mode. WIN, Linux, Unix Einfache Lösung. bis zu 10 Standby DB Network Failure Management Graceful Switchover XE, SEOne, SE WIN, Linux, Unix Einfache Lösung Oracle Hot Standby Maximum Performance Mode 100% Java Kompression bis zu 10 Standby DB Die Oracle Experten

Mehr

Desktop Virtualisierung. marium VDI. die IT-Lösung für Ihren Erfolg

Desktop Virtualisierung. marium VDI. die IT-Lösung für Ihren Erfolg Desktop Virtualisierung marium VDI die IT-Lösung für Ihren Erfolg marium VDI mariumvdi VDI ( Desktop Virtualisierung) Die Kosten für die Verwaltung von Desktop-Computern in Unternehmen steigen stetig und

Mehr

Virtualisierung im IT-Betrieb der BA

Virtualisierung im IT-Betrieb der BA Virtualisierung, essenzielles Werkzeug in der IT-Fabrik Martin Deeg, Anwendungsszenarien Cloud Computing, 31. August 2010 Virtualisierung im IT-Betrieb der BA Virtualisierung im IT-Betrieb der BA Effizienzsteigerung

Mehr

Software Defined Storage in der Praxis

Software Defined Storage in der Praxis Software Defined Storage in der Praxis - Vorteile und Nutzen für jede Unternehmensgröße - Torsten Welke Regional Manager Nord 1 Speicherbedarf nimmt weiter rasant zu - aber ohne Nachhaltigkeit - 2 Herausforderungen

Mehr

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit Big Data und Business Analytics für Kunden und Unternehmen Umfangreiche und ständig anwachsende Datenvolumen verändern die Art und Weise, wie in zahlreichen Branchen Geschäfte abgewickelt werden. Da immer

Mehr