Storage Guide. Grundlagen Technologien Lösungen. Ausgabe 28 Mai Datensicherheit im Unternehmen erfordert Rundum-Konzept

Größe: px
Ab Seite anzeigen:

Download "Storage Guide. Grundlagen Technologien Lösungen. Ausgabe 28 Mai 2014. Datensicherheit im Unternehmen erfordert Rundum-Konzept"

Transkript

1 Grundlagen Technologien Lösungen Storage Guide Ausgabe 28 Mai 2014 Datensicherheit im Unternehmen erfordert Rundum-Konzept Neue Ansätze bei quell - seitiger Deduplizierung Unified Storage mit Hardware und Software erweitern Backup und Archivierung gemeinsam konfigurieren Flash-Speicher im praktischen Einsatz Object Storage zur Entlastung des Primär - speichers Komplettlösung fürs Backup

2 Data protection that grows with your environment. Trust backup and recovery solutions from Dell Software As your physical and virtual environment evolves, your data protection policies should too. Dell NetVault Backup and AppAssure, along with backup-to-disk appliances like the Dell DR and DL systems, ensure you ll meet your backup windows and recovers any piece of data at any time all while keeping pace with your growing data environment. For more information visit software.dell.com/solutions/data-protection/

3 Editorial IT wird erwachsen Die letzten Jahre sind durch eine zum Teil nicht mehr überschaubare Vielfalt von Hypes und Trends in der Informations-Technologie geprägt. Die große Zahl an Innovationen ist darauf zurückzuführen, dass diese Technologie/Branche vergleichsweise jung ist und sich gerade in einer entscheidenden Phase der Weiterentwicklung befindet. Ähnlich der maschinellen Industrialisierung im späten 18. Jahrhundert ist die Verbreitung und Relevanz der IT für die Produktion und Bereitstellung von Produkten und Dienstleistungen von wesentlicher Bedeutung für die heutige Volkswirtschaft. IT als Grundlage für Information und Kommunikation ist zum entscheidenden Wettbewerbsvorteil für die meisten Unternehmen geworden. Die Menge an Informationen und die Anforderung an deren permanente und ortsunabhängige Verfügbarkeit zwingt daher, ähnlich der Entwicklungen im 18. Jahrhundert, zu Standardisierung und Automatisierung. Vor diesem Hintergrund lassen sich auch aktuelle Trends im Bereich Virtualisierung und Konsolidierung für Storage und IT-Infrastruktur besser einordnen. Vergleichbar der maschinellen Industrialisierung befindet sich die IT dabei in einem ähnlichen Dilemma, denn es gibt einen schwer zu optimierenden Konflikt zwischen Standardisierung und Individualisierung. Beispielsweise stehen Unternehmen aktuell vor der Herausforderung, dass sie das Potenzial von mobilen Arbeitskräften mit jeweils individuell angepassten Geräten und Software nutzen möchten. Aufgrund von Administrations- und Sicherheitsaspekten müssen aber möglichst einheitliche Geräte und Prozesse verwendet werden (Mobility/BYOD). IT-Verantwortliche sollten sich dieser grundsätzlichen Entwicklung bewusst sein und bei der Planung und Ausgestaltung der eigenen Infrastruktur und Prozesse berücksichtigen. Geeignete Lösungen im Zeitalter der IT-Industrialisierung helfen, die Herausforderungen in den Bereichen Effizienz in Bereitstellung und Management, aber auch bei der Individualisierung von Informationen zu bewältigen. Bijan Taleghani Leiter Produkt Marketing und Business Development TIM AG Inhalt Umfassende Sicherheit Um den immer raffinierteren Methoden der Hacker zu begegnen, bietet Symantec ein ganzes Portfolio von Werkzeugen für den Schutz der Unternehmensdaten. Schnellere Backups Die Dell DR4100 bildet zusammen mit NetVault Backup ein hocheffizientes Gespann für die Datensicherung und Deduplizierung. Storage-Lösungen für jeden Zweck Mit der neuen EMC VNX, der Software ViPR sowie XtremIO und XtremSF hat EMC Storage- Lösungen für jedes Anforderungsprofil. Backup und Archivierung in einem Mit OnePass enthält CommVault Simpana eine clevere Funktion, die redundante Tasks bei Backup und Archivierung zusammenfasst und die Sicherungsläufe beschleunigt. Mehr Performance, weniger Kosten Die neue FAS8000-Reihe von NetApp bietet nicht nur eine höhere Rechenleistung. In Kombination mit Clustered Data ONTAP arbeiten die Systeme auch besonders effizient. Ein neues Storage-Level Mit Quantum Lattus entsteht zwischen Primär- Storage und Tapes ein zusätzliches Tier-Level mit höchster Datensicherheit und nahezu grenzenloser Skalierbarkeit. Universelle Lösung Unter dem Namen arcserve Unified Data Protection vereint CA seine Lösungen rund um das Backup to Disk und stattet sie mit einer gemeinsamen Oberfläche aus. Impressum Ihr Feedback ist uns wichtig: Wie gefällt Ihnen der StorageGuide? Wird der Inhalt nach Ihrer Meinung informativ und kompetent behandelt? Gibt es ein Thema, über das Sie in der nächsten Ausgabe gerne lesen möchten? Ob Kritik oder Lob, wir freuen uns auf Ihre Anregungen! Stefanie Blank, TIM AG, , Eine Publikation der TIM AG Idee und Konzept: TIM AG, Schoßbergstr. 21, Wiesbaden Projektleitung: TIM AG, Stefanie Blank, Redaktion: twins ad, Roland Freist Design, Layout und Herstellung: twins ad, Full-Service Werbeagentur, Schwanthalerstr. 91, München, Die verwendeten Produktbezeichnungen und Markennamen sind eingetragene Warenzeichen der jeweiligen Hersteller.

4 Hersteller Symantec Defense in depth auf allen Ebenen gut abgesichert Die Methoden der Hacker beim Ausspionieren von Unternehmen sind heute so verfeinert, dass die Eindringlinge kaum noch bemerkt werden. Symantec setzt dem ein ganzes Bündel abgestimmter Maßnahmen entgegen. Cyber-Spionage ist zum Normalfall geworden. Angriffe auf das Wissen und die Infrastruktur eines Unternehmens können heute von jedem Ort der Welt und mit verhältnismäßig einfachen Mitteln vorgenommen werden. Die Zahl der potenziellen Angreifer ist damit zu einer unübersehbaren Menge geworden. Es ist heute nicht mehr die Frage, ob ein Unternehmen bereits angegriffen wurde, denn jede Firma war bereits Ziel einer Attacke. Der Punkt ist, dass manche Unternehmen die Angriffe bemerken und manche nicht. Eine Security-Strategie darf sich daher nicht nur auf die Abwehr von Eindringlingen konzentrieren. Symantec hat aus diesem Grund ein ganzes Portfolio an Werkzeugen aufgebaut, die auf unterschiedlichen Ebenen, sozusagen nach dem Zwiebelprinzip, zum Einsatz kommen. Mit diesen gestaffelten Verteidigungslinien können Unternehmen gezielte Angriffe auf sensible Daten erschweren oder sogar abwehren. Betriebssysteme härten Sicherheit im RZ Eine der verbreitetsten Methoden, um fremde Webserver lahmzulegen, sind DDoS- Attacken, bei denen die Hacker Tausende von fremden Rechnern für einen Angriff umkonfigurieren. Aber auch innerhalb eines Netzwerks kann ein infiltrierter Computer nützlich sein, um etwa den Datenverkehr abzuhören. Um das zu verhindern, bietet Symantec Data Center Security an, mit der sich das Betriebssystem härten lässt. Sämtliche Funktionen, die für die Aufgaben des Computers nicht notwendig sind, werden dabei gesperrt. So lässt sich etwa erreichen, dass ein Webserver tatsächlich nur als Webserver einsetzbar ist. Dieses Feature erhielt mit dem Support-Ende für Windows XP am 8. April 2014 eine besondere Aktualität: Wenn Unternehmen dieses Betriebssystem weiterhin nutzen wollen, sollten sie es auf jeden Fall mit Symantec Data Center Security schützen. Verschlüsselung Wenn es jemandem gelingt, ins Firmennetzwerk einzudringen, darf er nicht die Möglichkeit haben, geschäftskritische Dokumente einzusehen. Eine Verschlüsselung verhindert, dass die Dateien ihre Inhalte preisgeben. Syman tec bietet eine komplette Produktpalette an, mit denen sich die Daten auf den Endgeräten sensitive Daten schützen lassen. So sind Komponenten zum Schutz von Disk-Laufwerken und Wechselmedien, für eine zentrale oder dezentrale Verschlüsselung des Mailverkehrs sowie für den Schutz von Netzwerk-Freigaben und Batch- Dateien entstanden. Zudem ist der Encryption Management Server erhältlich, der die Automatisierung von Gruppen- und individuellen Richtlinien sowie die Verwaltung der Verschlüsselungs- Anwendungen übernimmt. Kritische Daten auffinden Applikationsschutz Host-Schutz Netzwerkschutz Physikalischer Schutz Symantecs Security-Lösungen schützen nach dem Zwiebelprinzip. Eines der größten Probleme beim Schutz vertraulicher Daten im Unternehmen ist, dass die Mitarbeiter Kopien davon anlegen und im Netzwerk verbreiten. So werden die Dateien etwa per verschickt und sind dann auf dem Kommunikationsserver und im Posteingang des Empfängers zu finden, sie werden in Sharepoint diskutiert, liegen auf Cloud-Laufwerken und Notebooks. Symantec Data Loss Prevention ist eine Lösung, mit der eine Firma wichtige Daten ständig im Blick behalten kann, ganz gleich, wo sie abgelegt wurden, ob auf Servern oder Netzwerk-Clients. Die Software dient zum Auffinden und Verwalten der Files, sie kann den Eigentümer ermitteln und nachverfolgen, wer sie an wen verschickt hat. Sicherheit und Analyse als Service Während sich Schadcode in früheren Jahren verhältnismäßig einfach mit einem Viren - s canner beseitigen ließ, sind die Methoden mittlerweile raffinierter geworden. Die Suche nach Eindringlingen übergeben Unternehmen daher zunehmend an spezialisierte Firmen. Unter der Bezeichnung Managed Security Services bietet auch Symantec diese Dienstleistung an. Die Mitarbeiter überprüfen beispielsweise die Logdateien von Firewalls, Antiviren-Scannern und von Intrusion-Detection-Systemen. Wenn sie einen Angriff erkennen, führen sie Analysen durch, um den Weg der Einbrecher durch die Sicherheitsstrukturen nachvollziehen und ihn versperren zu können. Authentifizierung Eine der größten Gefahren für die Sicherheit ist der sorglose Umgang mit Benutzernamen und Passwort. Selbst wenn ein komplexes Kennwort gewählt wurde, gibt es keine Garantie, dass die Mitarbeiter es nicht an andere Personen weitergeben. An diesem Punkt setzt die Zwei-Faktoren-Authentifizierung des Symantec Validation and ID Protection Service (VIP) an. Dieser cloudbasierte Dienst kombiniert Informationen wie Benutzernamen und Passwort mit einer Hardware- Referenz wie etwa einer Chip-Karte und schafft so eine zusätzliche Sicherheitsschicht. Fazit Bei allen technischen Vorsichtsmaßnahmen darf nie vergessen werden, dass das größte Sicherheitsrisiko für ein Unternehmen der ungeschulte Mitarbeiter ist. Jedem Mitarbeiter muss daher bewusst gemacht werden, wie moderne Attacken funktionieren und wie sie selbst dazu beitragen können, dass keine geschäftskritischen Informationen nach draußen gelangen. Wichtig ist zudem die Definition von Sicherheitsrichtlinien nach dem Prinzip defense in depth, die beispielsweise die standardmäßige Verschlüsselung von vertraulichen Daten festlegen, aber auch auf die Compliance eingehen, also die gesetz- und richtliniengemäße Aufbewahrung und Behandlung von Daten.

5 DELL Turbo für die Datensicherung Mit der DR4100 präsentiert Dell nicht nur eine neue Deduplikations-Appliance, sondern auch das RDA- Pro tokoll für besonders schnelle und effektive Backups. Das schnelle Wachstum der Datenmengen, das nahezu jedes Unternehmen auf seinen Servern und Clients beobachtet, hat den Storage zu einem der wichtigsten Themen in der IT gemacht. Denn das Vorhalten, Sichern und Archivieren der Daten verschlingt immer größere Teile der oftmals knappen IT-Budgets. Zudem schafft die Datenflut logistische Probleme: Die Netzwerk-Kapazitäten sind plötzlich nicht mehr ausreichend und die Backup-Zeitfenster zu klein, um alle Daten auf die Sicherungssysteme zu kopieren. Die IT-Abteilung ist also in immer rascherer Folge gezwungen, in Upgrades der vorhandenen Infrastruktur zu investieren, um mit der rasanten Entwicklung Schritt zu halten. Das bindet nicht nur finanzielle, sondern auch personelle Ressourcen. Abhilfe verspricht die Deduplizierung, ein Verfahren, bei dem mehrfach vorhandene Datenblöcke durch Pointer ersetzt werden, die auf die originalen Segmente verweisen. Je nach Anwendung und Datenmix können auf diese Weise Reduktionsraten von mehr als 90 Prozent erreicht werden. Neben Lösungen für eine Software-Deduplizierung, die ein verhältnismäßig langwieriger Vorgang ist, haben sich am Markt spezielle Deduplizierungs-Appliances etabliert. Sie richten sich vor allem an Kunden, die nach einer einfachen, aber effektiven Lösung für die Bewältigung ihrer stark gewachsenen Backup-Volumen suchen. Aufgrund der hohen Datenreduktionsraten der Appliances kann der Kunde erheblich größere Datenmengen auf einer geringeren Zahl von Festplatten sichern. Gleichzeitig genießt er die Vorteile eines Backup to Disk, also beispielweise eine geringe Restore-Zeit. Erweiterter Nachfolger der DR4000 Dell ist bereits seit mehreren Jahren auf diesem Markt aktiv. Als Nachfolger der DR4000 stellte das Unternehmen nun die neue DR4100 vor. Die Deduplizierungs-Appliance richtet sich an alle Unternehmen, die ihre Backups für einen schnellen Zugriff auf Platten ablegen möchten. Das Gehäuse belegt im Rack zwei Höheneinheiten, die Kapazität lässt sich mit zwei Erweiterungen bis auf 81 Terabyte ausbauen. Das Besondere an der neuen Version sind die enge Verzahnung mit Dells Backup-Lösung NetVault Backup und das neu entwickelte RDA- Protokoll, das sowohl in die DR4100 wie auch in die Backup-Software integriert ist. RDA steht für Rapid Data Access und realisiert eine quellseitige Deduplizierung. Die Funktionsweise ist einfach: Der Client auf dem Server, dessen Daten gesichert werden sollen, kommuniziert bei einem Backup-Vorgang ständig mit der DR4100. Bei jedem Datenblock fragt er nach, ob dieser Block auf der Appliance bereits vorhanden ist. Falls ja, übergibt er an die Appliance lediglich einen wesentlich kleineren Pointer. Der gesamte Vorgang läuft über eine direkte Verbindung und während der Datenübertragung in Echtzeit ab, die Hauptarbeit erledigt dabei die DR4100. Die Belastung des Servers bleibt gering. Der Vorteil: Es müssen wesentlich weniger Daten übertragen werden, die Netzwerklast geht also drastisch zurück. Gleichzeitig sinkt der Zeitaufwand für das Backup, was die Definition kleinerer Zeitfenster erlaubt. Hinzu kommen die oben beschriebenen Benefits durch die Deduplizierung. Das RDA-Protokoll wird softwareseitig derzeit lediglich von NetVault unterstützt. Dell hat jedoch bereits angekündigt, dass auch die nächste Version von vranger, der hauseigenen Lösung für die Sicherung von VMware-Umgebungen, das Protokoll enthalten wird. Zielseitige Deduplizierung mit NFS und CIFS Neben RDA versteht die Dell DR4100 natürlich auch die Standard-Protokolle NFS und CIFS und ist für die Zusammenarbeit mit Lösungen wie EMC NetWorker, IBM Tivoli, CommVault Simpana oder Symantec NetBackup zertifiziert. In diesen Konfigurationen muss der Kunde jedoch auf die Vorteile des RDA-Protokolls verzichten. Wird die DR4100 über NFS/CIFS angesprochen, führt sie eine reine zielseitige Deduplizierung durch, wobei ein Backup den üblichen, unkomprimierten Datenstrom und eine entsprechende Netzwerklast erzeugt. Die DR4100 eignet sich auch gut als zentrale Backup-Instanz für Unternehmen mit mehreren Standorten. Sie kann bis zu 32 entfernte Server sichern und, bei Einsatz des RDA- Protokolls, die Daten direkt an der Quelle deduplizieren. Da eine Deduplikation normalerweise umso effektiver ist, je größer der Datenbestand ausfällt, ergeben sich dabei besonders hohe Reduzierungsraten. Neben einer zentralen Datensicherung und Deduplizierung lässt sich mit der DR4100 aber auch eine Replikation der Außenstellen konfigurieren. Die Dell DR4100 ist eine einfach zu konfigurierende und preiswerte Backup- und Deduplikationslösung. Ihre universellen Einsatzmöglichkeiten machen sie zu einem Rundumsorglos-Paket, das seine besonderen Stärken vor allem in Zusammenarbeit mit NetVault-Backup und in naher Zukunft mit Dell vranger ausspielt. Intelligente, benutzerfreundliche und skalierbare Lösung für festplattenbasierte Sicherung und Wiederherstellung, inklusive Deduplizierung und Replikation. Dell DR4100 Dedup-Appliance 2 HE im Rack Kapazität: 9, 18 oder 27 TB, mit zwei Erweiterungen auf bis zu 81 TB ausbaubar RAID 6-kompatibel Integriertes RDA-Protokoll, dazu NFS/CIFS Unterstützung für Symantec OST, lizenziert für alle führenden Backup-Lösungen Unterstützung für bis zu 32 Knoten oder Außenstellen Dell Fluid-Data-Architecture Weitere Informationen: TIM AG Tel xx 4 5yy

6 EMC Storage wird zum Service Mit der neuen VNX und Spezialprodukten wie XtremSF, XtremIO sowie der Software ViPR deckt EMC das gesamte Spektrum der modernen Anforderungen an Storage-Produkte ab. Während in früheren Zeiten eine strikte Trennung nach Netzwerken und ihren Protokollen, nach SAN und NAS vorherrschte, hat es bei den Storage-Systemen in den vergangenen Jahren einen Wandel gegeben, der zur Entwicklung der Unified-Storage-Systeme führte. Verantwortlich dafür waren die Wünsche der Kunden: Sie wollten ihre IT-Infrastruktur flexibler machen, wobei sich die herkömmlichen, getrennten Systeme zunehmend als wenig effizient erwiesen. Unified Storage hingegen lässt sich nahezu in jede Umgebung integrieren und kann einfach umkonfiguriert werden, wenn beispielsweise der Bedarf an NAS-Speicher in einem Unternehmen wächst. Die Beliebtheit dieser Systeme ist damit zu einem guten Teil auf den Investitionsschutz zurückzuführen, den sie bieten. Technologie entwickelt, die die einzelnen CPU- Cores deutlich besser auslastet. Dahinter steckt die Erkenntnis, dass es sich Betriebssysteme und Applikationen beim Verteilen der Workloads auf die einzelnen Kerne meist zu einfach machen. Sie weisen den CPU-Cores jeweils komplette Prozesse zu, ganz gleich, wie viele Ressourcen sie beanspruchen. Dadurch sind manche Kerne sehr stark, andere nur wenig ausgelastet, die wahre Leistungsfähigkeit der CPUs wird nicht ausgenutzt. Der Anwender spürt das an langsam reagierenden Applikationen. Dem wirkt die MCx-Technologie entgegen, indem sie die laufenden Prozesse modularisiert und in Teilprozesse zerlegt, die sie anschließend gleichmäßig auf die CPU-Cores verteilt. Dieses Verfahren bezieht die Cores wie vor zu groß. Doch mit der Konzentration auf Flash kann die VNX die Vorteile der schnellen Disks komplett ausschöpfen. Last but not least ist an dieser Stelle die hohe und einfach skalierbare IOPS-Rate der VNX zu nennen. Mit der Möglichkeit, die Speicherkapazität schnell und flexibel auszubauen, lassen sich die insgesamt sechs Modellvarianten der zweiten VNX-Generation sehr fein an die jeweils aktuellen Anforderungen eines Unternehmens anpassen. Für den Kunden bedeutet das einen hohen Grad an Investitionsschutz und die Möglichkeit, die Storage-Systeme granular an die Anforderungen in seinem Unternehmen anzupassen. XtremSF für höchste Ansprüche an die Performance BLOCK Fibre Channel iscsi CIFS NFS pnfs FTP SAS 2.0 Sie können aber auch noch auf andere Vorteile verweisen. Dazu zählen beispielsweise das vereinfachte Management, das sich mit einer einheitlichen Verwaltungs-Software ergibt, der geringere Administrations-Aufwand, wenn aus zwei Maschinen eine wird, und die im Vergleich mit spezialisierten Systemen geringere Stellfläche im Rechenzentrum. Die neue Generation der EMC VNX Die Entwicklung des Unified Storage ist jedoch noch längst nicht abgeschlossen. Ein Beispiel dafür ist die zweite Generation der EMC VNX: Sie bietet einen völlig neuen, effektiveren Umgang mit den heute üblichen Mehrkern- Prozessoren an. Unter der Bezeichnung MCx, wobei das MC für Multicore steht, hat EMC eine Front-end-I/O Multicore-DRAM-Cache Multicore-FAST Cache Multicore-RAID Back-end-I/O FAST FILE EMCs Multicore Optimierung umfasst die CPU, das Cache- und RAID Controller Management. Damit wird sichergestellt, dass das System linear skaliert und die Applikation maximal von der neuen Plattform profitiert. CMI- Lastenausgleich Aktiv/Aktiv sämtlicher vorhandenen CPUs gleichmäßig mit ein. Hinzu kommt die Möglichkeit, die Storage- Systeme über zusätzliche CPU-Cores zu skalieren, wodurch sie sich selbstständig an neue Prozessor-Generationen mit zusätzlichen Cores anpassen und sie in vollem Umfang ausnutzen können. Die Kunden bekommen damit mehr Performance als mit einem System ohne MCx, was insgesamt die erforderlichen Investitionen in die Hardware verringert. Ein zweiter Punkt, der die neue EMC VNX auszeichnet, ist die Fokussierung auf Flash- Speicher. Das gesamte Storage-System wurde für den Einsatz von schnellen SSDs optimiert. Das soll allerdings nicht heißen, dass die Maschinen nicht mehr mit mechanischen Festplatten umgehen könnten, dazu sind deren Vorteile in puncto Preis, Kapazität und Verschleiß nach Es gibt Anwendungen, die so hohe Ansprüche an die Performance eines Storage- Systems stellen, dass man Unified-Storage Lösungen wie die VNX mit deutlich mehr Flash- Laufwerken aufrüsten müsste, um ihre Anforderungen zu erfüllen. Typische Beispiele sind die Datenbanken von ERP-Systemen, die sämtliche Stammdaten wie Personal- und Lagerbestand sowie die Geschäftsprozesse (Einkauf, Verkauf, Kontobewegungen etc.) einer Firma abbilden. Preiswerter ist es dann häufig, Erweiterungen wie EMC XtremSF zu installieren, die ganz gezielt einzelne Anwendungen beschleunigen. Auf die Vorteile von Unified Storage muss der Kunde dennoch nicht verzichten. Die XtremSF ist eine PCIe-Karte, die in ihren verschiedenen Varianten zwischen 350 GByte und 2,2 Terabyte Flash-Speicher aufweist. Sie wird gemeinsam mit der XtremSW Cache- Software im Server installiert und bringt den Flash-Speicher damit näher an die CPU: Anstatt den langsameren Weg über den Netzwerkspeicher nehmen zu müssen, kann der Prozessor direkt über den schnellen PCIe-Bus mit dem Speicher kommunizieren. Die Zugriffszeiten sinken dadurch von Milli- auf Mikrosekunden. Mit der XtremSW Cache-Software lassen sich die Flash-Karten als lokaler Zwischenspeicher konfigurieren, der sowohl Lese- wie auch Schreibvorgänge beschleunigt. In diesem Fall bleiben jedoch keine Kopien der Daten auf dem Storage-Array erhalten, bei einem Ausfall der Karte sind sie verloren. In einem zweiten Modus beschleunigt die Karte nur die Lesevorgänge. Dank eines Write-Through-Algorithmus bleiben die neu geschriebenen Daten jedoch im Array unverändert erhalten und geschützt.

7 Die XtremSF-Karte wird gerne eingesetzt, wenn eine Anwendung auf der VNX so viel Leistung benötigt, dass sie den gesamten verfügbaren Flash-Speicher monopolisiert und damit bei den anderen Applikationen weniger oder sogar gar keinen Performance-Gewinn durch den Flash-Speicher ermög licht. Sie ist in diesem Fall die deutlich günstigere Lösung als wenn sich der Kunde ein komplettes, zusätzliches Array anschaffen würde. Und: Ältere EMC-Systeme sowie Storage von Drittanbietern können durch XtremSF gezielt beschleunigt und somit länger genutzt werden (Investmentschutz). XtremIO als spezialisierte Flash-Lösung Während die EMC VNX als Unified-Storage-System mit mechanischen und Flash-Disks eine Art Universalwerkzeug für Anwendungen aller Art bildet wegen ihrer vielseitigen Verwendbarkeit wird sie oft als Schweizer Taschenmesser bezeichnet zielt XtremIO auf eine Teilmenge der Applikationen, deren Anforderungen es dafür jedoch besser erfüllen kann. Die Kunden bekommen mit dem XtremIO ein All-Flash- Array, das also ausschließlich mit Flash-Speicher ausgestattet ist, und entsprechend niedrige Antwortzeiten aufweist. EMC gibt Werte zwischen einer halben und einer Millisekunde an. Es basiert auf sogenannten X-Bricks, die sich über ein Scale-out Schritt für Schritt erweitern lassen. Jeder X-Brick enthält zwei Storage-Prozessoren und 15 Flash-Laufwerke, das Gleiche gilt für die Erweiterungen. Der Anwender skaliert also durch Hinzufügen von X-Bricks immer sowohl die CPU-Kapazität, den Arbeitsspeicher, die Connectivity und die Speicherkapazität. Die zweite Besonderheit ist die integrierte Inline-Deduplizierung des XtremIO. Das macht das System zum idealen Kandidaten für Umgebungen mit vielen identischen Dateninhalten, die zudem eine hohe Performance erfordern. Ein typisches Beispiel sind Unternehmen, die mit virtuellen Desktops arbeiten. Dort werden ein und dasselbe Betriebssystem sowie identische Anwendungen für Dutzende oder sogar Hunderte von Arbeitsplätze bereitgestellt und zentral verwaltet, wodurch sich mit der Deduplizierung des XtremIO eine hohe Datenreduktionsrate erzielen lässt. Mit seiner Scale-out-Architektur kann das Array bei wachsender Mitarbeiterzahl zudem schnell und einfach die benötigte höhere Performance liefern. Ein anderes Anwendungsbeispiel sind Umgebungen, in denen mehrere Kopien einer Datenbank betrieben werden, beispielsweise für Tests und Entwicklung. Auch hier kann die XtremIO mit ihrer Hardware-Deduplizierung und EMC ViPR Platform ViPR Data Services ViPR Controller Provisioning Self-Service Reporting Automation VMAX VNX Isilon VPLEX Centera Atmos ViPR automatisiert und zentralisiert das Speichermanagement, die -konfiguration und -bereitstellung. Das Storage-Management erfolgt auf der virtuellen Ebene, sodass Kunden den Speicher einfach partitionieren und als Service bereitstellen können. dem schnellen Flash-Speicher bestehende Performance-Engpässe auflösen. Im Unterschied zur VNX gibt es jedoch auch viele Anwendungen, für die sie weniger geeignet ist, wie etwa für den Einsatz als Backup- und Archivierungs-System. ViPR zur Storage-Abstrahierung XtremIO Commodity Third-Party Mit dem Aufkommen des Cloud Computing veränderten sich auch die Anforderungen an die Rechenzentren. Sie sollen nun schnell und vor allem sehr flexibel auf die Wünsche der Anwender reagieren können, sollen innerhalb kürzester Zeit Ressourcen bereitstellen, aber auch wieder zurücknehmen. Gleichzeitig ist ein möglichst kostengünstiger und effektiver Einsatz der Hardware und Software gefordert. Das hat zum Siegeszug der Virtualisierung geführt, einer Technik, die komplette Server in Minutenschnelle zur Verfügung stellen kann. Um die Administratoren zu entlasten, können die Anwender die benötigten Server für ihre Projekte über spezielle Portale einfach anfordern, die Bereitstellung geschieht weitgehend automatisch. Die IT-Mitarbeiter überwachen den Vorgang nur noch und leisten bei Bedarf Hilfestellung. Mit dem Konzept des Software Defined Storage überträgt EMC diese Idee nun auf die Storage-Ebene. Das zugehörige Produkt heißt EMC ViPR. Es handelt sich dabei um eine Software, die die vorhandenen Storage-Ressourcen abstrahiert und provisioniert, sodass die IT- Abteilung sie als Services zur Verfügung stellen kann. ViPR nutzt dabei die Funktionalitäten der jeweiligen Storage-Systeme wie etwa Spiegelung oder eine Snapshot-Funktionalität und stellt sie dem Anwender zur Verfügung. Es ersetzt sie nicht durch eigene Funktionen, die Investitionen in die vorhandene Software sind also geschützt. Konkret werden verschiedene Service- Levels definiert, etwa nach der Performance der Arrays, ob die Daten beispielsweise durch Snapshots geschützt werden oder ob eine Replikation eingerichtet ist. Nun kann der Anwender über ein Portal den benötigten Storage anfordern und dabei auch die benötigte Datensicherheit, Performance etc. definieren. Diese Anforderung geht zunächst an das Orchestrierungs-Tool, das der Kunde verwendet. ViPR kann dabei mit den Werkzeugen von VMware, Microsoft und der freien Software OpenStack zusammenarbeiten. Von dort bekommt ViPR dann die Anforderung für die Bereitstellung von Storage und übernimmt im Hintergrund die Provisionierung und das Mapping. Der Vorteil für den Kunden: ViPR automatisiert die Provisionierung und richtet sich dabei trotzdem nach den individuellen Anforderungen der Anwender. Damit entlastet es zum einen die IT-Abteilung und trägt andererseits dazu bei, den vorhandenen Storage effizienter zu nutzen. Da EMC um die Situation in den Rechenzentren weiß, hat es ViPR zudem herstellerunabhängig ausgelegt. Weil die meisten Unternehmen mit einer heterogenen Hardware-Landschaft arbeiten, kann die Software auch die Arrays anderer Storage-Firmen einbeziehen. Dieses System nennt sich EMC ViPR Controller. Parallel dazu hat EMC auch die ViPR Data Services entwickelt, mit denen auf den Arrays im Rechenzentrum bestimmte Software-Funktionalitäten zur Verfügung gestellt werden. Im ersten Schritt hat EMC die Bereitstellung des Big- Data-Frameworks Hadoop freigegeben, weitere Anwendungen wie etwa Backup sollen folgen. Fazit EMC stellt die VNX für Storage-Aufgaben aller Art bereit und hat sie in der zweiten Generation technisch noch einmal überarbeitet und leistungsfähiger gemacht. Für besonders leistungshungrige Anwendungen bietet der Hersteller Produkte wie XtremSF und XtremIO an, die VNX sinnvoll zu ergänzen. Und mit ViPR zeigt die Firma, dass sie den Grundgedanken des Cloud Computing, nämlich die Bereitstellung von benutzerorientierten Services, in spannende, neue Produkte umsetzen kann. Weitere Informationen: TIM AG Tel

8 NetApp Clustered Data ONTAP Das No-Downtime Datacenter NetApp Clustered Data ONTAP 8 bietet als flexible Unified Storage- Plattform horizontale Skalierbarkeit, unterbrechungsfreien Betrieb im 24/7-Modus und Kapazitäten im Petabyte-Bereich. Vermeiden Sie Ausfallszeiten, da Kapazitätserweiterungen, Wartungsarbeiten oder Upgrades im laufenden Storage-Betrieb Ihrer Shared Infra struktur durchgeführt werden können. Was Data ONTAP, das Storage Betriebssystem #1 noch alles kann, erfahren Sie unter NetApp. Alle Rechte vorbehalten. Änderungen vorbehalten. NetApp, das NetApp Logo und Go further, faster sind Marken oder eingetragene Marken von NetApp Inc. in den USA und/oder anderen Ländern. Alle anderen Marken oder Produkte sind Marken oder eingetragene Marken der jeweiligen Rechtsinhaber.

9 CommVault Datensicherung in einem Rutsch OnePass war zwar bereits in Version 9 von CommVault Simpana enthalten. Aber erst in der aktuellen Version 10 zeigt sich, was tatsächlich alles in dieser Methode steckt. Eines der großen Themen in der IT war in den letzten Jahren das enorme Datenwachstum. Praktisch jede Wirtschaftsbranche, jede Forschungseinrichtung und staatliche Behörde sah sich mit dem Problem konfrontiert, exponentiell wachsende Datenmengen verarbeiten und speichern zu müssen. Der Begriff Big Data, der eigentlich positiv besetzt ist und eng mit neuen, spannenden Auswertungsmethoden und Anwendungen verknüpft ist, bekam für viele Administratoren einen schalen Beigeschmack. Denn die rasant wachsenden Daten volumina bedeuten nicht nur, dass die StorageSysteme mit zusätzlichen Speicherkapazitäten immer weiter kostenintensiv ausgebaut werden müssen. Sie ziehen weitere Anforderungen nach sich, da das Zeitfenster für das Backup nicht mehr ausreicht und die Netzwerk-Infrastruktur für die zusätzlichen Belastungen nicht gerüstet ist. Hinzu kommt, dass die Compliance-Anforderungen immer schwerer zu erfüllen sind, da die Prozesse für Backup und Archivierung angesichts der enormen Datenmengen an ihre Grenzen stoßen. Die oftmals getrennt organisierten Abläufe sind zu zeitintensiv und nicht effizient genug, um die gestiegenen Anforderungen zu erfüllen. Es dauert schlichtweg zu lang, die Daten zu sichern oder auch aus dem Archiv die Dokumente und s zu einem Vorgang herauszusuchen. Eine zeitgemäße Archivierung muss daher eng mit dem Backup verflochten sein. Denn es geht heute nicht mehr nur darum, wichtige Firmendaten jahrelang sicher aufzubewahren und bei Bedarf innerhalb einer akzeptablen Zeitspanne wieder verfügbar zu machen. Stattdessen muss es zu einem Zusammenspiel kommen: So sollten beispielsweise Backup-Daten, die längere Zeit nicht angefordert wurden, automatisch in ein Archiv verschoben werden. Das verringert das Volumen der Backup-Sätze, verringert den Bedarf an Primärspeicher und schont die Netzwerk-Ressourcen. Man kann sogar überlegen, ob die Trennung zwischen Backup- und Archiv systemen heute noch sinnvoll ist. Denn viele der Prozesse sind identisch oder zumindest ähnlich, so etwa die Katalogisierung der Daten. Konsolidierung der Agenten CommVault Simpana ist ein Musterbeispiel für die Integration von Anwendungen aus dem Storage-Umfeld in einer gemeinsamen Plattform. Die Lösung vereinigt Module für Backup, Archivierung, und Replikation mit einem StorageRessource-Management und einer Suche. Die OnePass fasst die Agenten für Backup, Archivierung und Reporting zusammen. einheitliche Oberfläche und gemeinsame CodeBasis verhindern Reibungsverluste beim Zusammenspiel der Applikationen und erleichtern die Konfiguration. So kann etwa die integrierte Deduplizierung Backup- und Archivdaten gemeinsam bearbeiten, wodurch sich eine höhere Datenreduktionsrate ergibt. Mit OnePass führt CommVault eine weitere Konsolidierung durch. Es handelt sich dabei um eine Methode, über die der Anwender in Simpana Backup und Archivierung gemeinsam konfigurieren kann. In der aktuellen Version 10 der Software wurden zusätzlich die beiden zugehörigen Agenten zu einem zusammengefasst. Zuvor gab es zwei Agenten, einer war zuständig für die Datensicherung, der andere für die Archivierung. Beide mussten vom Administrator getrennt voneinander und mit unterschiedlichen Optionen konfiguriert werden, sodass am Ende in der Regel zwei Speicherrichtlinien entstanden. Die meisten Kunden richteten Simpana zudem so ein, dass jeder Agent einen eigenen Filescan vornahm. Zwar gab es bereits in Version 9 die Möglichkeit, diese Scans über OnePass zusammenzufassen, sie wurde jedoch nur selten genutzt. In Simpana 10 hat CommVault OnePass noch einmal optimiert und effizienter gestaltet. Der einheitliche Agent führt nun auch nur noch einen einzigen Filescan durch. Da das wesentlich schneller geht, kann auch das Backup-Zeitfenster kleiner gewählt werden. Die Reduktion auf einen Scan-Vorgang vereinfacht zudem die Konfiguration und reduziert die Komplexität der Datensicherung. Der Agent besitzt zwei Register, eines für Backup, eines für Archivierung, mit denen die Parameter für das Vorhalten der Daten schnell eingegeben sind. Der Administrator kann dort beispielsweise mit wenigen Klicks und Eingaben definieren, dass die Backup-Daten 30 Tage gespeichert werden, während die Archivierungsdaten drei Jahre vorgehalten werden sollen. Diese Kombination aus Backup und Archivierung ist derzeit weltweit einmalig. Intelligente Backups Neu in Version 10 von Simpana und OnePass ist auch, dass die Daten nur noch einmal angefasst werden. Die Software führt zu Beginn ein Full Backup durch, bei dem sie sämtliche Daten indexiert und auf Disk sichert. Anschließend begnügt sie sich mit inkrementellen Backups, die sie in regelmäßigen Abständen zu neuen, synthetischen Vollbackups zusammenführt. Typischerweise wird dieses Incremental forever Verfahren so eingerichtet, dass von Montag bis Freitag inkrementelle Sicherungen erfolgen, die die Produktiv-Systeme und das Netzwerk nur minimal belasten. Das aufwendigere Erzeugen eines Full Backup läuft dann am Wochenende. Zusammengefasst hat OnePass für den Anwender gleich mehrere Vorteile: Zum einen bringt es ihm deutliche Entlastungen seiner Infra struktur, da die ausschließlich inkrementellen Backups das Netzwerk weniger belasten. Zum Zweiten spart der einheitliche Agent für Backup und Archivierung Zeit, sodass das BackupFenster kleiner ausfallen kann, und ist zugleich auch einfacher einzurichten. Und zum Dritten ist es dem Administrator mit OnePass möglich, die Sicherung schnell und einfach so einzustellen, dass die Produktivsysteme regelmäßig um nicht mehr benötigte Daten entlastet werden. Dazu werden sie automatisch in den Content Store von Simpana verschoben. Zusätzlich lässt sich auch die Einhaltung von Compliance-Richtlinien mit Simpana effizient organisieren. Weitere Informationen: TIM AG Tel

10 NetApp Storage für höchste Ansprüche Mit den neuen Systemen der FAS8000-Familie bietet NetApp eine perfekte Kombination aus Storage- Hardware und einer neuen Version von Data ONTAP an. Funktionsweise von Virtual Storage Tiering (VST) Quelle: NetApp 1200 Disks auf, die maximal 4800 Terabyte Speicherplatz zur Verfügung stellen. 18 Terabyte Flash-Speicher können davon für das Virtual Storage Tiering genutzt werden. Die FAS8020 bietet vier 10-Gbit-Ethernet-, vier UTA2- (Unified Target Adapter), vier Gigabit-Ethernet- und vier 6-Gigabit-SAS-Ports, außerdem enthält sie vier PCIe-Slots der dritten Generation. Die größeren FAS8040 und FAS8060 kommen auf jeweils acht 10-Gigabit-Ethernet-, UTA2- Gigabit-Ethernet- und 6-Gigabit-SAS- Ports sowie acht PCIe-Slots. Allen drei neuen Modellen gemein ist die Unterstützung für die Storage-Protokolle Fibre Channel, Fibre Channel over Ethernet, iscsi, NFS, pnfs und CIFS/SMB. Über Clustered Data ONTAP lassen sich die Maschinen zu NAS- Clustern mit bis zu 24 Nodes oder SAN-Clustern mit bis zu acht Nodes zusammenfassen. Unter dem Druck, immer schneller, preiswerter und effizienter zu produzieren, verlangen Unternehmen von ihren IT-Abteilungen immer feinere Messdaten über Arbeits-, Vertriebs- und Produktionsabläufe. Zudem sollen diese Daten immer schneller bereitstehen, am besten täglich aktualisiert und in Sekundenschnelle abrufbar sein. Das gleiche Bild ergibt sich bei Behörden und Forschungseinrichtungen, auch hier wird mit immer größeren Datenmengen gearbeitet, auch hier wächst der Zeitdruck. Diese Anforderungen sind nur zu bewältigen, wenn die IT mitwächst und bei Hardware und Software kontinuierlich auf höhere Leistung setzt. NetApp reagiert auf solche Kundenanforderungen und stellt regelmäßig konsequente Überarbeitungen seiner Produktlinien vor, die zum einen mehr Performance bieten, um die wachsenden Datenmengen zu verarbeiten. Zum anderen erhalten die Kunden mit den Systemen aber auch die Möglichkeit, effizienter und damit kostensparend zu arbeiten. Das gilt insbesondere für die neuen FAS8000-Maschinen. Sie zeichnen sich durch eine enge Integration und Abstimmung mit dem hauseigenen Betriebssystem Clustered Data ONTAP aus, wodurch sich die gesamte Bandbreite an Funktionen der Software optimal nutzen lässt. Es geht um drei neue Modelle mit den Bezeichnungen FAS8020, FAS8040 und FAS8060, sie sind die Nachfolger der FAS3220, FAS3250 und FAS6220. Die grundlegenden Charakteristika bleiben dabei erhalten es handelt sich um Unified-Storage-Systeme mit Unterstützung für SAN und NAS, die dank der vom Betriebssystem organisierten, virtuellen Storage-Infrastruktur im laufenden Betrieb horizontal skalierbar sind. Erhebliche Änderungen haben sich jedoch bei der Performance ergeben, hier legen die FAS8000-Maschinen deutlich zu. Die FAS8020 arbeitet mit zwölf CPU-Kernen, 48 GByte RAM und 8 GByte NVRAM, was ihr im Vergleich zur FAS3220 zu einer um das 2,3-fache erhöhten Performance verhilft. Die Speicherkapazität reicht bis zu 1920 Terabyte, die sich auf maximal 480 Platten verteilen. Im Mischbetrieb mit SAS- und Flash-Disks kann der Anwender für das Virtual Storage Tiering (VST) bis zu 6 Terabyte Flash einsetzen. Das ist das Vierfache an Kapazität im Vergleich zum Vorgängermodell. Das Herzstück der FAS8040 bilden insgesamt 16 CPU-Kerne, denen 64 GByte RAM und 16 GByte NVRAM zur Verfügung stehen. Das ergibt gegenüber der FAS3250 eine um das 1,9-fache gesteigerte Performance. In der größten Ausbaustufe laufen in der Maschine 720 Platten mit einer Gesamtkapazität von 2880 Terabyte. Für das Virtual Storage Tiering können bis zu 12 Terabyte Flash-Speicher reserviert werden. Das größte Modell schließlich, die FAS8060, verteilt die Workloads auf 32 CPU-Cores und 128 GByte Arbeitsspeicher, dazu kommen 16 GByte NVRAM. Die Performance steigt damit gegenüber der FAS6220 um etwa das 1,7-fache. Das Storage-System nimmt bis zu Ein Anwendungsbeispiel Als Unified-Storage-System ist die FAS8000 universell einsetzbar und eignet sich insbesondere für die Storage-Konsolidierung. Doch wie kann eine Anwendung konkret von den hohen Leistungswerten profitieren? Dazu ein Beispiel für den Einsatz einer FAS als All- Flash-Variante, die also auf mechanische Festplatten komplett verzichtet und durchgängig mit Flash-Disks ausgestattet ist. Von Meteorologen wird heute gefordert, dass sie nicht nur die Wetterlage für die nächsten Tage und Wochen vorhersagen. Sie sollen auch jederzeit exakte Daten zur aktuellen Wettersituation in geographisch sehr eng umgrenzten Gebieten parat haben, also beispielsweise zur Niederschlagsmenge, Temperatur, Windstärke, Bewölkung, Luftfeuchtigkeit, Sonnenintensität, Nebeldichte und zu der Höhe von Nebelbänken. Benötigt werden solche Daten beispielsweise für die Unwettervorhersage. Flughäfen wollen NetApp FAS8040

11 möglichst auf die Minute genau wissen, wann ein Gewitter sie erreicht, das sie dazu zwingt, den Betrieb vorübergehend einzustellen. Aber auch Rettungsdienste, die Notärzte per Hubschrauber zu Unfallorten fliegen, fragen vor dem Start nach, wie die Wetterlage auf ihrer Route und am Zielort aussieht, ob etwa starker Wind und Nebel den Flug gefährden könnten. Tausende von Wetterstationen liefern in Deutschland rund um die Uhr entsprechende Messdaten, die dann zu einer detaillierten Wetterkarte für die Hubschrauber-Route zusammengesetzt werden können. Die Komplexität und die hohe Menge der Daten stellen allerdings höchste Ansprüche an die auswertenden Computer. Hinzu kommt der Zeitfaktor: Wenn ein Unfall gemeldet wird, muss es schnell gehen. Die Entscheidung, ob ein Transport per Hubschrauber möglich ist oder ob aufgrund der Wetterverhältnisse der langsamere Rettungswagen genommen werden muss, ist innerhalb weniger Sekunden fällig. Die Auswertung der Wetterdaten für ein bestimmtes Gebiet muss praktisch auf Knopfdruck bereitstehen. Einfache Skalierbarkeit Für solche Zwecke sind die FAS8000- Modelle ideal geeignet. Sie besitzen die erforderliche Performance, um solche Auswertungen tatsächlich innerhalb einer Sekunde liefern zu können. Ein weiteres Argument für ihren Einsatz ist die einfache Skalierbarkeit. Hier kann NetApp auf eine Besonderheit verweisen, die das Hinzufügen von weiteren Speicherkapazitäten deutlich erleichtert. Denn mit Clustered Data ONTAP hat der Hersteller eine zusätzliche Virtualisierungsschicht eingezogen und so die physischen Storage-Controller von den Applikationen getrennt. Als Ergebnis sehen die Anwendungen lediglich einen oder mehrere virtuelle Controller, die jedoch von den physischen Maschinen völlig unabhängig sind. Das bringt verschiedene Vorteile mit sich, wobei in diesem Fall vor allem die Möglichkeiten bei der Skalierung der Maschinen interessant sind. Weil die Applikationen allein auf virtuelle Controller zugreifen, kann der Administrator die physischen, realen Geräte einfach austauschen, durch leistungsstärkere Modelle ersetzen und weitere Controller hinzufügen. Dazu müssen die Storage-Systeme nicht einmal heruntergefahren werden, alles lässt sich im laufenden Betrieb erledigen. Hardware-Cache für schnellere Ergebnisse Um den Zugriff auf die gespeicherten Wetterdaten der Stationen im Gebiet rund um den Unfallort zu beschleunigen, bietet sich der Einsatz eines zusätzlichen Hardware-Caches an. Mit Flash Cache hat NetApp eine PCIe-Karte im Programm, die in Ausführungen mit 512 GByte sowie einem oder zwei Terabyte Flash-Speicher erhältlich ist. Sie führt die Daten näher an die CPU heran und ermöglicht auf diese Weise erheblich kürzere Zugriffszeiten. Weitere Konfigurationen Flash-Technologien von NetApp arbeiten auf allen Storage-Ebenen. Cache für die SATA- und SAS-Platten: Die am häufigsten angeforderten Daten wandern auf die Flash-Laufwerke mit ihren extrem schnellen Zugriffszeiten, weniger oft benötigte Daten werden auf den mechanischen Platten vorgehalten. Diese Verteilung wird ständig aktualisiert und geschieht ohne Eingriff des Administrators. Ein interessantes Detail ist dabei, dass Flash Pool auf Block-Ebene arbeitet. Bei großen Files setzt es lediglich die tatsächlich benötigten Datenblöcke einer Datei auf die Flash-Laufwerke. Und: Ähnlich wie bei einer Deduplizierung werden identische, mehrfach vorhandene Datenblöcke nicht auf die SSDs verlagert, stattdessen greift die Software auf die bereits vorhandenen Daten zu. Das ist auch einer der Gründe dafür, warum Flash Pool am effektivsten ist, wenn es für mehrere Server gleichzeitig als Cache dient, beispielsweise in Form eines externen Shared Storage. Im Unterschied zu Flash Cache kann Flash Pool nicht nur die Lese-, sondern auch die Schreibvorgänge beschleunigen. Es benö tigt SSDs und SATA-/SAS-Platten als Hardware- Basis und ist einfach zu konfigurieren. NetApp FAS8020 Bei Anwendungs-Szenarien, die weniger Performance erfordern, also beispielsweise beim Betrieb von Datenbanken, ERP-Systemen oder Kommunikationsservern, lässt sich die FAS8000 selbstverständlich auch mit einem Mix aus Flash-Laufwerken und mechanischen SATA- oder SAS-Festplatten bestücken. In diesem Fall kann der Administrator die Maschine für ein automatisches Tiering konfigurieren. NetApp nennt diese komplett automatisierte Technik Virtual Storage Tiering (VST). Dabei kommt ein spezieller Cache namens Flash Pool zum Einsatz. Er erlaubt das Zusammenfassen von mechanischen und SSD-Laufwerken zu einem Aggregat, das aus mehreren RAID-Verbunden besteht. Durch das deutlich umfangreichere RAM der Systeme kann man nun auch weitaus größere Flash-Speicher- Kapazitäten für VST verwenden. Der Flash Pool nutzt nun die SSDs als Flash Accel als Server-Cache Als dritte Cache-Variante bietet NetApp Flash Accel an. Sie ist in Data ONTAP integriert und wird als spezieller Server-Cache für NetApp- Storage wie die FAS8000 bereitgestellt. Flash Accel realisiert ein Virtual Storage Tiering auf Server-Ebene. Als Hardware-Basis für den Cache-Speicher lassen sich sowohl SSD-Laufwerke wie auch mit Flash bestückte PCIe-Karten definieren, wobei der Kunde bei der Auswahl der Karten und Laufwerke nicht an einen bestimmten Hersteller gebunden ist. Da viele Kunden jedoch alles aus einer Hand beziehen wollen, fungiert NetApp beim Thema Server-Cache als Reseller für Fusion-io-Produkte. Insgesamt bestehen die Stärken von Flash Accel vor allem darin, die Latenzzeiten von einzelnen Anwendungen zu reduzieren. Weitere Informationen: TIM AG Tel

12 CYBER-KRIMINALITÄT: SMB BEDROHUNGEN UM 100% GESTIEGEN Ein Cyber-Angriff kann Ihr Unternehmen in wenigen Minuten zerstören. SMBs brauchen einen Schutz, der genauso schnell agiert. 73% aller SMBs wurden bereits Opfer von Cyber-Angriffen 1 36% aller Angriffe zielen auf SMBs 2 5,5 MILLIARDEN MALWARE- 3 ANGRIFFE Anstieg um 81% Anstieg um 36% NEUE WEB-BASIERTE ANGRIFFE TÄGLICH 3 Anstieg um 41% 403 MILLIONEN NEUE MALWARE- VARIANTEN 3 Symantec Endpoint Protection SCHÜTZEN SIE IHRE KUNDEN UND IHREN UNTERNEHMERISCHEN ERFOLG EINFACH. SCHNELL. EFFEKTIV. 89% aller SMBs, die IT als Wachstumstreiber sehen, benutzen die Cloud für wichtige Geschäftsbereiche 4 63% aller SMBs haben kein festes IT-Personal 4 Quellen: 1. Symantec SMB Information Protection Survey Symantec Intelligence Report, Juni Symantec Internet Security Threat Report Volume 17, April AMI Segmentation Study The Accidental Entrepreneur, Forrester Custom Research im Auftrag von Symantec, Mai 2012

13 Quantum Storage für die Ewigkeit Quantum nennt Lattus ein Forever Disk Archive und weist damit auf die enorme Langlebigkeit der Daten auf diesem System hin. Was steckt dahinter, und wo liegen die Unterschiede zur herkömmlichen RAID-Technik? Die enormen Datenmengen, die heute beispielsweise bei wissenschaftlichen Projekten, in Social-Media-Diensten wie Facebook oder bei Musik- und Videoservices wie Spotify und Netflix generiert werden, stellen die Speichertechnologien auf eine ganz neue, harte Probe. Denn obwohl aktuelle Festplatten Kapazitäten von mehreren Terabyte bieten und die RAID-Technik immer weiterentwickelt wurde, ist das oftmals zu wenig, um die anfallenden Daten zu vertretbaren Kosten und gleichzeitig sicher aufbewahren zu können. Die herkömmlichen Konzepte erweisen sich zunehmend als ungeeignet, um mit sehr gro ßen Datenvolumina fertig zu werden. Hinzu kommt, dass Daten heute oftmals ständig verfügbar sein und auf Knopfdruck bereitstehen sollen. Die klassischen Tiering-Modelle mit ihren Tape-Archiven sind für diese Zwecke jedoch zu langsam im Zugriff. Ein RAID-Verbund ist heute oftmals nicht mehr effizient genug. Als die Technik Ende der 80er-Jahre das erste Mal präsentiert wurde, bedeutete sie für Disksysteme noch einen echten Quantensprung, sowohl was die Zugriffsgeschwindigkeit als auch die Datensicherheit anbelangt. In den Folgejahren erwies sie sich dann auch als sehr effektiv, denn sie erlaubt die Verwendung und Zusammenführung von mehreren Platten, die sich nach außen als ein großes, logisches Laufwerk darstellten und dank redundanter Datenhaltung und der Bildung von Paritätsinformationen gleichzeitig gut gegen Datenverluste schützten. Doch bei Datenmengen im Petabyte- Bereich und Festplatten mit mehreren Terabyte Kapazität zeigen sich die Grenzen der Technik. So kann heute das Rebuild einer 4-Terabyte-Platte in einem RAID-Verbund bis zu 24 Stunden in Anspruch nehmen. Die Daten müssen daher immer doppelt oder sogar mehrfach vorgehalten werden, was hohe Kosten verursacht. Denn in vielen Bereichen ist eine solche Zeitspanne, in der bestimmte Daten nicht erreichbar sind, nicht hinnehmbar. Abgrenzung gegenüber RAID Quantum hat daher vor einigen Jahren die Idee des Object Storage aufgenommen und in seiner Lattus-Produktlinie umgesetzt. Im Unterschied zu datei- und blockbasierten Systemen verwaltet Object Storage Daten als Objekte, die zusätzlich zumeist noch einige Metadaten und eine eindeutige ID aufnehmen. Ähnlich wie bei einem RAID-System wurden zudem Verfahren entwickelt, um eine möglichst hohe Datensicherheit zu erreichen: Das Konzept des Object Storage kalkuliert von vornherein ein, dass Hardware wie eine Festplatte ausfallen kann. Damit die Daten trotzdem nicht verloren sind, setzt man Encoding-Verfahren ein. Das Konzept dahinter ist schon länger bekannt und wird in anderen Bereichen bereits erfolgreich angewendet, so beispielsweise bei der Kommunikation mit Satelliten. Dabei gehen aufgrund verschiedener Störeinflüsse regelmäßig Signalpakete verloren. Damit trotzdem eine vollständige Datenübertragung stattfindet, generiert der Sender so viel zusätzliche Information, dass der Empfänger in der Lage ist, das Original zu rekonstruieren. Die Lattus-Systeme von Quantum setzen auf das Fountain Erasure Coding, das als besonders effizient gilt. Das kann man sich bildlich mit einer Garderobe vorstellen: Werden Mantel, Schuhe und Regenschirm an einer Garderobe abgegeben, bekommt man eine Garderobenmarke (Object ID), über die alle Bestandteile des Objekts (Mantel, Schuhe, Regenschirm) referenziert werden. Das bedeutet im Umkehrschluss aber auch, dass bei Verlust der Garderobenmarke das Objekt als solches noch existiert, jedoch nicht ohne Weiteres mehr gefunden werden kann. Das Encoding zerlegt die Objekte in Untermengen. Wie viele das sein sollen, kann der Anwender bestimmen. Wählt er beispielsweise die Einstellung 20/4, wird das Objekt in 20 Teilmengen aufgegliedert, die im Object Store auf Ein Objekt ist ein Container, der Daten und Metadaten enthält und über eine ID aufgerufen wird. Der Speicherort ist unerheblich. Bei einer fehlerhaften Datenüber tragung ist der Empfänger in der Lage, Fehler zu erkennen und zu korrigieren, ohne dass das Objekt erneut gesendet werden muss. 20 verschiedenen Festplatten abgelegt werden. Die Zahl 4 bedeutet, dass bis zu vier dieser Platten ausfallen dürfen, ohne dass ein Datenverlust eintritt. Sämtliche Daten sind trotzdem kontinuier lich erreichbar. Aufgrund dieser Eigenschaften erreicht Quantum eine sehr hohe Sicherheit beziehungsweise Langlebigkeit der Daten. Denn für unternehmenskritische Bereiche kann der Administrator auch eine 20/11-Policy definieren: Damit können sogar bis zu elf Disks ausfallen. Erkauft wird das allerdings mit einem schlechteren Verschnitt. Damit ist das Verhältnis zwischen der Brutto- und der tatsächlichen Nutzkapazität gemeint, wobei dieser Wert jedoch immer noch Weitere Informationen: TIM AG Tel

14 Quantum Je nach eingesetzter Software, erlauben regelbasierte Einstellungen eine hohe Automatisierung, zum Beispiel beim permanenten Verschieben von Datentypen, der Daten-Migration, dem Kopieren, Löschen oder dauerhaften Aufbewahren von Informationen. deutlich besser aussieht als bei gespiegelten RAID-Systemen. In einem Object Store können mehrere Namensräume mit verschiedenen Policies koexistieren. Der Administrator kann also Bereiche mit geringerem und höherem Sicherheitsniveau definieren. Es ist auch problemlos möglich, einen Namensraum beispielsweise über mehrere Stand orte zu verteilen. Beispiel: Ein Unternehmen speichert seine Daten in drei Rechenzentren in drei verschiedenen Städten. Mit Quantum Lattus würden die Mitarbeiter an jedem dieser Standorte den gleichen Namensraum sehen und könnten ihre Daten dort ablegen. Lattus würde sie im Hintergrund automatisch auf die Rechenzentren verteilen. Mit einer 20/11-Policy könnte sogar eins von diesen drei Rechenzentren ausfallen, und trotzdem wäre immer noch der Zugriff auf sämtliche Daten gewährleistet, und zwar ohne dass es zu Unterbrechungen oder Performance-Einbußen käme. Die Produktion des Unternehmens an den beiden verbliebenen Standorten wäre also trotz des Ausfalls der Verbindung zu einem seiner Rechenzentren nicht beeinträchtigt. Alle Mitarbeiter könnten wie gewohnt weiterarbeiten, während der Schaden behoben wird. Die Benefits für den Kunden Wo liegen nun die Vorteile und Einsatzmöglichkeiten von Quantum Lattus für den Kunden? Um diese Frage zu beantworten, müssen zunächst noch einige Voraussetzungen und Eckdaten von Lattus geklärt werden. Zunächst einmal muss man verstehen, dass Object Storage ein eigenes Tier-Level bildet, das sich zwischen den primären Disk-Speicher und Tapes schiebt. Ein Lattus-System ist preiswerter als Primär- Storage, jedoch deutlich teurer als die Archivierung auf Tape. Es bietet eine hohe Langlebigkeit und hat gegenüber den Bändern den Vorteil, dass die Daten jederzeit sofort zur Verfügung stehen. Allerdings lassen sich damit keine Compliance- Richtlinien erfüllen, es gibt derzeit keine entsprechenden Zertifizierungen. Und: Lattus lässt sich zwar nahezu unbegrenzt bis hinauf in den Exabyte-Bereich skalieren, die kleinsten Systeme beginnen jedoch erst bei einer Bruttokapazität von 250 Terabyte. Zudem erreicht es keine hohen IOPS-Raten und eignet sich in erster Linie für größere Dateien. Quantum empfiehlt Lattus für Anwender, deren Datenbestand zu 80 Prozent Files mit einer Größe von 1 MByte und mehr umfasst. Allerdings werden diese Rahmendaten heute auch von vielen mittelständischen Unternehmen erreicht. So ist Lattus beispielsweise im Einsatz bei einer Firma, die sich um die Postproduction von Kinofilmen und TV-Produktionen kümmert. Sie arbeitet mit umfangreichen Video dateien, die in verschiedenen Fassungen und Schnittversionen schnell zur Verfügung stehen müssen. Lattus wird aber auch von Radiosendern verwendet, die auf dem System ihr Musik archiv abgelegt haben. Für Administratoren sprechen noch eine ganze Reihe weiterer Argumente für Lattus. Sie profitieren beispielsweise vom Self-Healing, also die Fähigkeit des Systems, die Objekte auf einer ausgefallenen Festplatte automatisch zu rekonstruieren und so auf die noch vorhandenen Disks zu verteilen, dass sie allen Anwendern zur Verfügung stehen. Diese Eigenschaft lässt sich auch für einfache Upgrades der Hardware nutzen: Der Administrator kann gezielt ältere Platten- Shelfs mit weniger Kapazität durch neue und größere ersetzen. Das kann im laufenden Betrieb geschehen, es kommt zu keinen Unterbrechungen beim Datenzugriff. Lattus verteilt anschließend die Daten selbsttätig neu, es führt also quasi eine Selbstmigration durch. Dieser Rebuild ist vergleichbar dem gleichnamigen Vorgang bei einem RAID-System, bindet allerdings erheblich weniger Performance, sodass es bei den Anwendern zu keinem Einbruch bei den Zugriffszeiten kommt. Bei einem entsprechend ausgebauten System ist es sogar denkbar, dass defekte Festplatten nicht mehr sofort gewechselt werden, sondern nur in festen Intervallen, also etwa einmal im Monat. Bis dahin sorgt die hohe Sicherheit von Lattus dafür, dass auch ein Ausfall mehrerer Platten keine Beeinträchtigungen nach sich zieht. Die Bestandteile eines Lattus-Systems Wie sieht nun konkret die Hardware eines Lattus-Systems aus? Ein Lattus Object Storage kombiniert mindestens zwei Typen von Nodes miteinander: Die Lattus S20 Storage Nodes speichern die Objektdaten und bieten in Gehäusen von einer Höheneinheit bis zu 48 Terabyte Kapazität an. Dazu kommen die Lattus C10 Controller Nodes. Sie übernehmen die Codierung der Objekte und verteilen sie auf die Storage Nodes. Um die Hochverfügbarkeit und Langlebigkeit der Daten sicherzustellen, gibt es in jeder Lattus- Installation mindestens drei Controller-Nodes. Der Zugriff darauf erfolgt standardmäßig über HTTP-REST, wobei allerdings auch andere Protokolle wie etwa Amazon S3 implementiert sind. Für Anwendungen, die diese Schnittstellen nicht unterstützen, bietet Quantum zudem den Lattus A10 Access Node an, mit dem sich ein Lattus- System auch per NFS/CIFS anbinden lässt. Zudem bietet er einen Cache für eine nochmals verbesserte Performance. Darüber hinaus ist Lattus als zusätzlicher Storage-Tier in Quantum Stornext integriert. Fazit Lattus spielt seine Stärken vor allem dann aus, wenn es darum geht, teuren Primärspeicher von großen Datenmengen zu entlasten, die trotzdem schnell und vor allem auch sehr sicher zur Verfügung stehen sollen. Hier bietet es eine nahezu unschlagbare Kombination aus Kosteneffizienz und Leistung. Lattus eignet sich auch ausgezeichnet als langlebiges Archivsystem, ist allerdings keine Einstiegslösung und nicht für jede Art von Daten ideal.

15 CA Konsolidiertes Backup mit arcserve Unified Data Protection Die Virtualisierung bestimmt heute, was Backup-Software leisten muss. CA ARCserve r16.5 bot bereits eine Lösung für Sicherung in virtuellen und physischen Umgebungen. Jetzt kommt der nächste Schritt. Die einfache Nutzung und Abdeckung vielfältiger Anforderungen für komplexe IT- Umgebungen ist das, was Endanwender heute suchen. War die CA ARCserve r16.5 Produktfamilie bereits soweit integriert, dass die Einzelprodukte miteinander über eine übergreifende Management-Konsole bedienbar waren, so mussten die einzelnen Komponenten noch getrennt aufgerufen und konfiguriert werden. Der nächste logische Schritt ist es daher, die Funktionalitäten für Datensicherung in eine einheitliche Lösung einzubetten und damit Disk-to-Disk-Backups und die Sicherung virtueller Umgebungen in einem Produkt zu vereinen. Bei der neuen Version der CA ARCserve- Produkte geht der Hersteller daher den Weg, die Komponenten CA ARCserve D2D und CA ARCserve Central Apps zu verschmelzen. Die Lösung wird nun arcserve Unified Data Protection oder kurz arcserve UDP heißen. arcserve RHA, also die Software für Replication und High Availability, bleibt ein eigenständiges Produkt, wird aber teilweise in die einheitliche Bedienoberfläche eingebaut. arcserve Backup, also die klassische Sicherung auf Tape, ist von den Veränderungen unberührt. an den Funktionsumfang von CA ARCserve D2D bei physischen Maschinen angeglichen. So gibt es nun eine Unterstützung der I2-Technologie, bei der nach einer einmaligen Vollsicherung in kurzen Abständen blockbasierte inkrementelle Sicherungen durchgeführt werden, sodass Speicherplatz gespart und bei einem Systemausfall die Wiederherstellung schnell erfolgen kann. Globale Deduplizierung Die interessanteste Neuerung ist jedoch die globale Deduplizierung von arcserve UDP. Dabei werden die Sicherungen bereits an der Zusammenführen und erweitern Mit dem bisherigen CA ARCserve D2D war die Datensicherung auf Disk möglich und die CA ARCserve Central Apps umfassten Tools für die zentrale Steuerung der mit CA ARCserve D2D gesicherten Server und Workstations und die gemeinsame Verwaltung der Berichte von CA ARCserve D2D und CA ARCserve Backup. Ebenso konnte damit die agentenlose Sicherung der Gastsysteme auf einem VMware-Host die Generierung eines Klons in einer virtuellen Maschine durchgeführt werden. Alle diese Funktionen wurden nun in eine einzige Software, in arcserve UDP integriert. Die bestehenden Komponenten wurden auch um zusätzliche Funktionalitäten ergänzt. So wurde etwa die Unterstützung für Microsoft Hyper-V erweitert. Genau wie bei VMware-Hosts ist es nun möglich, die virtuellen Maschinen kosteneffizient zu sichern, ohne dass darin ein Agent installiert werden muss. Ganz allgemein wurde die Funktionalität bei der Sicherung virtualisierter Umgebungen von VMware und Hyper-V arcserve UDP vereint CA ARCserve D2D und Central Apps in einem Produkt. Quelle dedupliziert und anschließend auf einen zentralen Recovery Point Server, kurz RPS, geschrieben. Dieser Server ist ebenfalls eine neue Komponente von arcserve UDP. Bei der Deduplizierung wird kontinuierlich überprüft, ob die zu sichernden Datenblöcke auf dem RPS bereits vorhanden sind. Falls ja, überträgt arcserve UDP lediglich einen kleineren Platzhalter, der einen Verweis auf die Originaldaten enthält. Dadurch sinkt das Volumen der Backup-Daten, die Sicherung ist schneller beendet, und die Netzwerk-Belastung geht zurück. Je mehr Server und Workstations auf den RPS zugreifen, desto effektiver wird die Deduplizierung. Das ist aber noch nicht alles: Der RPS lässt sich auf einen zweiten Server dieser Art replizieren. Dass kann beispielsweise so aussehen, dass in einer Außenstelle des Unternehmens zunächst fünf Server auf einen RPS gesichert werden. Anschließend erfolgt dann eine Replikation auf einen zweiten RPS im zentralen Datenzentrum der Firma. Auch dabei wird natürlich dedupliziert, sodass nur nicht bekannte Blöcke übertragen werden müssen. Auch diese Konfiguration lässt sich so erweitern, sodass der RPS in der Zentrale die Daten gleich von mehreren Außenstellen erhält. Dabei wird auch der Datenbestand der einzelnen Remote-RPS dedupliziert. All das lässt sich über eine einheitliche Weboberfläche einrichten, die den Zugriff auf die verschiedenen Funktionen erleichtert und beschleunigt. Dort kann der Administrator nicht nur einen Backup-Plan definieren, um festzulegen, wann und wie oft welche Daten gesichert werden sollen. Auch die Funktionen der CA ARCserve Central Apps sind in die Oberfläche integriert. Fazit arcserve UDP ist die Komplettlösung für alle Aufgaben in der Datensicherung. Mit ihrer schnellen Disk-Sicherung in physischen wie virtuellen Umgebungen und über verteilte Server-Landschaften hinweg unterstützt sie IT- Abteilungen kosteneffizient beim Einhalten ihrer SLAs. Ihre einheitliche Weboberfläche konsolidiert die bislang getrennten Einzellösungen und entlastet damit den Administrator. Weitere Informationen: TIM AG Tel

16 TIM AG Wiesbaden Tel

TIM AG. NetApp @ BASYS. Dipl. Informatiker (FH) Harald Will Consultant

TIM AG. NetApp @ BASYS. Dipl. Informatiker (FH) Harald Will Consultant NetApp @ BASYS Dipl. Informatiker (FH) Harald Will Consultant Organisatorisch Teilnehmerliste Agenda NetApp @ BASYS Data ONTAP Features cdot die neue Architektur Flash die neue Technologie Live Demo Agenda

Mehr

FACTSHEET. Backup «ready to go»

FACTSHEET. Backup «ready to go» FACTSHEET Backup «ready to go» Backup «ready to go» für Ihre Virtualisierungs-Umgebung Nach wie vor werden immer mehr Unternehmensanwendungen und -daten auf virtuelle Maschinen verlagert. Mit dem stetigen

Mehr

Backup- und Replikationskonzepte. SHE Informationstechnologie AG Patrick Schulz, System Engineer

Backup- und Replikationskonzepte. SHE Informationstechnologie AG Patrick Schulz, System Engineer Backup- und Replikationskonzepte SHE Informationstechnologie AG Patrick Schulz, System Engineer Übersicht Vor dem Kauf Fakten zur Replizierung Backup to Agentless Backups VMware Data Protection Dell/Quest

Mehr

Dell Data Protection Solutions Datensicherungslösungen von Dell

Dell Data Protection Solutions Datensicherungslösungen von Dell Dell Data Protection Solutions Datensicherungslösungen von Dell André Plagemann SME DACH Region SME Data Protection DACH Region Dell Softwarelösungen Vereinfachung der IT. Minimierung von Risiken. Schnellere

Mehr

Software oder Appliance basierende Deduplikation Was ist die richtige Wahl? Storagetechnology 2010

Software oder Appliance basierende Deduplikation Was ist die richtige Wahl? Storagetechnology 2010 Software oder Appliance basierende Deduplikation Was ist die richtige Wahl? Storagetechnology 2010 Frank Herold Manager PreSales CEE Quantums Portfolio StorNextSoftware DXiSerie ScalarSerie ManagementTools

Mehr

Think Fast: Weltweit schnellste Backup-Lösung jetzt auch für Archivierung

Think Fast: Weltweit schnellste Backup-Lösung jetzt auch für Archivierung Think Fast: Weltweit schnellste Backup-Lösung jetzt auch für Archivierung Weltweit schnellste Backup-Systeme Das weltweit erste System für die langfristige Aufbewahrung von Backup- und Archivdaten 1 Meistern

Mehr

Think Fast EMC Backup & Recovery BRS Sales BRS Pre Sales EMC Corporation. Copyright 2011 EMC Corporation. All rights reserved.

Think Fast EMC Backup & Recovery BRS Sales BRS Pre Sales EMC Corporation. Copyright 2011 EMC Corporation. All rights reserved. Think Fast EMC Backup & Recovery BRS Sales BRS Pre Sales EMC Corporation 1 Verpassen Sie den Technologiesprung? 2 Deduplizierung die Grundlagen 1. Dateneingang 2. Aufteilung in variable Segmente (4-12KB)

Mehr

EMC ISILON & TSM. Hans-Werner Rektor Advisory System Engineer Unified Storage Division. Oktober 2013

EMC ISILON & TSM. Hans-Werner Rektor Advisory System Engineer Unified Storage Division. Oktober 2013 EMC ISILON & TSM Hans-Werner Rektor Advisory System Engineer Unified Storage Division Oktober 2013 1 Tivoli Storage Manager - Überblick Grundsätzliche Technologie Incremental Forever Datensicherungsstrategie

Mehr

Spotlight 5 Gründe für die Sicherung auf NAS-Geräten

Spotlight 5 Gründe für die Sicherung auf NAS-Geräten Spotlight 5 Gründe für die Sicherung auf NAS-Geräten NovaStor Inhaltsverzeichnis Skalierbar. Von klein bis komplex.... 3 Kein jonglieren mehr mit Wechselmedien... 3 Zentralisiertes Backup... 4 Datensicherheit,

Mehr

Effizienter Einsatz von Flash-Technologien im Data Center

Effizienter Einsatz von Flash-Technologien im Data Center Effizienter Einsatz von Flash-Technologien im Data Center Herbert Bild Solution Marketing Manager Georg Mey Solutions Architect 1 Der Flash-Hype 2 Drei Gründe für den Hype um Flash: 1. Ungebremstes Datenwachstum

Mehr

Dunkel Cloud Storage. Der sichere Cloud-Speicher für Unternehmen

Dunkel Cloud Storage. Der sichere Cloud-Speicher für Unternehmen Dunkel Cloud Storage Der sichere Cloud-Speicher für Unternehmen Was ist Dunkel Cloud Storage? Dunkel Cloud Storage (DCS) stellt Ihnen Speicherplatz nach Bedarf zur Verfügung, auf den Sie jederzeit über

Mehr

Der Weg zur modernen IT-Infrastruktur mit FlexPod

Der Weg zur modernen IT-Infrastruktur mit FlexPod Der Weg zur modernen IT-Infrastruktur mit FlexPod Der Weg zur modernen IT-Infrastruktur mit FlexPod Das Herzstück eines Unternehmens ist heutzutage nicht selten die IT-Abteilung. Immer mehr Anwendungen

Mehr

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG!

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! JUNI 2011 Sehr geehrter Geschäftspartner, (oder die, die es gerne werden möchten) das Thema Virtualisierung oder die Cloud ist in aller Munde wir möchten Ihnen

Mehr

ETERNUS CS800 Datensicherungs-Appliance mit Deduplizierungstechnologie

ETERNUS CS800 Datensicherungs-Appliance mit Deduplizierungstechnologie ETERNUS CS800 Datensicherungs-Appliance mit Deduplizierungstechnologie Betrachten Sie Ihr Tagesgeschäft nur für einen Moment aus einer anderen Perspektive. Wir verwirklichen Ihre IT-Träume. Wie läuft Ihr

Mehr

Software Defined Storage in der Praxis

Software Defined Storage in der Praxis Software Defined Storage in der Praxis Jens Gerlach Regional Manager West 1 Der Speichermarkt im Umbruch 1985 2000 Heute Herausforderungen Serverspeicher Serverspeicher Serverspeicher Hyper-konvergente

Mehr

Heterogenes Speichermanagement mit V:DRIVE

Heterogenes Speichermanagement mit V:DRIVE Heterogenes Speichermanagement mit V:DRIVE V:DRIVE - Grundlage eines effizienten Speichermanagements Die Datenexplosion verlangt nach innovativem Speichermanagement Moderne Businessprozesse verlangen auf

Mehr

Wie unterstützt EMC mit Automatisierung die Anforderungen der Server Virtualisierung?

Wie unterstützt EMC mit Automatisierung die Anforderungen der Server Virtualisierung? Wie unterstützt EMC mit Automatisierung die Anforderungen der Server Virtualisierung? Joachim Rapp Partner Technology Consultant 1 Automation in der Speicher-Plattform Pooling Tiering Caching 2 Virtualisierung

Mehr

Magirus der IT-Infrastruktur und -Lösungsanbieter. Herzlich willkommen! 17.4. München 26.4. Düsseldorf. Seite 1. 03.5. Frankfurt

Magirus der IT-Infrastruktur und -Lösungsanbieter. Herzlich willkommen! 17.4. München 26.4. Düsseldorf. Seite 1. 03.5. Frankfurt Herzlich willkommen! 17.4. München 26.4. Düsseldorf Seite 1 03.5. Frankfurt Optimierung von IT-Infrastrukturen durch Serverund Storage-Virtualisierung IT-Infrastruktur- und -Lösungsanbieter Produkte, Services

Mehr

Backup & Recovery. Einfach & Effektiv. The heart of the network

Backup & Recovery. Einfach & Effektiv. The heart of the network Backup & Recovery Einfach & Effektiv Agenda Allgemeines zum Backup Backup Strategien Backup-to-Disk Tiered Storage - Hierarchisches Speicher Management D-Link und der Tiered Storage Ansatz wachstum Weltweites

Mehr

ROSIK Mittelstandsforum

ROSIK Mittelstandsforum ROSIK Mittelstandsforum Virtualisierung und Cloud Computing in der Praxis Virtualisierung in der IT Einführung und Überblick Hermann Josef Klüners Was ist Virtualisierung? In der IT ist die eindeutige

Mehr

(früher: Double-Take Backup)

(früher: Double-Take Backup) (früher: Double-Take Backup) Eine minutengenaue Kopie aller Daten am Standort: Damit ein schlimmer Tag nicht noch schlimmer wird Double-Take RecoverNow für Windows (früher: Double-Take Backup) sichert

Mehr

Virtuelle Tape Libraries, Überblick und Merkmale. Martin Mrugalla martin.mrugalla@empalis.com

Virtuelle Tape Libraries, Überblick und Merkmale. Martin Mrugalla martin.mrugalla@empalis.com Virtuelle Tape Libraries, Überblick und Merkmale Martin Mrugalla martin.mrugalla@empalis.com Inhalt Was ist eine Virtuelle Tape Library (VTL)? Mögliche Gründe für eine VTL im TSM Umfeld Klärung der Begriffe

Mehr

Ersetzen Sie Cisco INVICTA

Ersetzen Sie Cisco INVICTA Ersetzen Sie Cisco INVICTA globits Virtual Fast Storage (VFS) Eine Lösung von globits Hat es Sie auch eiskalt erwischt!? Hat es Sie auch eiskalt erwischt!? Wir haben eine echte Alternative für Sie! globits

Mehr

RAID. Name: Artur Neumann

RAID. Name: Artur Neumann Name: Inhaltsverzeichnis 1 Was ist RAID 3 1.1 RAID-Level... 3 2 Wozu RAID 3 3 Wie werden RAID Gruppen verwaltet 3 3.1 Software RAID... 3 3.2 Hardware RAID... 4 4 Die Verschiedenen RAID-Level 4 4.1 RAID

Mehr

Effiziente Datensicherung

Effiziente Datensicherung Effiziente Datensicherung ETERNUS CS800 Backup-to-Disk mit Deduplizierung Von den meisten digitalen Dramen. erfährt die Öffentlichkeit nichts! Fotograf verliert alle Bilder einer Auftragsarbeit! Produktion

Mehr

PROFI UND NUTANIX. Portfolioerweiterung im Software Defined Data Center

PROFI UND NUTANIX. Portfolioerweiterung im Software Defined Data Center PROFI UND NUTANIX Portfolioerweiterung im Software Defined Data Center IDC geht davon aus, dass Software-basierter Speicher letztendlich eine wichtige Rolle in jedem Data Center spielen wird entweder als

Mehr

GoVault Data Protection-Software Überblick

GoVault Data Protection-Software Überblick 1226-GoVaultSoftware-GermanTranslation-A4 13/3/08 09:16 Page 1 Das GoVault-System enthält die Windows-basierte Software GoVault Data Protection und bildet damit eine komplette Backup- und Restore-Lösung

Mehr

Klein Computer System AG. Portrait

Klein Computer System AG. Portrait Klein Computer System AG Portrait Die Klein Computer System AG wurde 1986 durch Wolfgang Klein mit Sitz in Dübendorf gegründet. Die Geschäftstätigkeiten haben sich über die Jahre stark verändert und wurden

Mehr

Isilon Solutions + OneFS

Isilon Solutions + OneFS Isilon Solutions + OneFS Anne-Victoria Meyer Betreuer: Dr. Julian Kunkel Proseminar: Ein-/Ausgabe - Stand der Wissenschaft 16. Oktober 2013 Contents 1 Einleitung 2 1.1 Scale-Out-NAS..........................

Mehr

Symantec Protection Suite Advanced Business Edition Mehr als nur Viren- und Endgeräteschutz

Symantec Protection Suite Advanced Business Edition Mehr als nur Viren- und Endgeräteschutz Datenblatt: Endpoint Security Mehr als nur Viren- und Endgeräteschutz Überblick Symantec Protection Suite Advanced Business Edition ist ein Komplettpaket, das kritische Unternehmensressourcen besser vor

Mehr

Windows Server 2012 R2 Storage

Windows Server 2012 R2 Storage Tech Data - Microsoft Windows Server 2012 R2 Storage MS FY14 2HY Tech Data Microsoft Windows Server 2012 R2 Kontakt: Microsoft @ Tech Data Kistlerhofstr. 75 81379 München microsoft-sales@techdata.de +49

Mehr

Hitachi File & Content Services: Hitachi NAS Plattform. Uwe Angst NAS Business Manager

Hitachi File & Content Services: Hitachi NAS Plattform. Uwe Angst NAS Business Manager Hitachi File & Content Services: Hitachi NAS Plattform Uwe Angst NAS Business Manager 1 Hitachi, Ltd. (NYSE:HIT/TSE:6501) Einer der One of the weltgrössten integrierten Elektronikkonzerne Gegründet 1910

Mehr

Präsentation für: Copyright 2011 EMC Corporation. All rights reserved.

Präsentation für: Copyright 2011 EMC Corporation. All rights reserved. Präsentation für: 1 IT Herausforderungen Bezahlbar Overcome flat budgets Einfach Manage escalating complexity Effizient Cope with relentless data growth Leistungsstark Meet increased business demands 2

Mehr

Telekom Deutschland GmbH. Erleben, was verbindet. kontaktieren Sie uns hier am Stand oder Ihren Kundenberater.

Telekom Deutschland GmbH. Erleben, was verbindet. kontaktieren Sie uns hier am Stand oder Ihren Kundenberater. Vernetztes Vernetztes Leben Leben und und Arbeiten Arbeiten Telekom Deutschland GmbH. Erleben, was verbindet. kontaktieren Sie uns hier am Stand oder Ihren Kundenberater. Das virtuelle Rechenzentrum Heiko

Mehr

Storage as a Service im DataCenter

Storage as a Service im DataCenter Storage as a Service im DataCenter Agenda Definition Storage as a Service Storage as a Service und IT-Sicherheit Anwendungsmöglichkeiten und Architektur einer Storage as a Service Lösung Datensicherung

Mehr

EMC. Data Lake Foundation

EMC. Data Lake Foundation EMC Data Lake Foundation 180 Wachstum unstrukturierter Daten 75% 78% 80% 71 EB 106 EB 133 EB Weltweit gelieferte Gesamtkapazität Unstrukturierte Daten Quelle März 2014, IDC Structured vs. Unstructured

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

Betriebssysteme K_Kap11C: Diskquota, Raid

Betriebssysteme K_Kap11C: Diskquota, Raid Betriebssysteme K_Kap11C: Diskquota, Raid 1 Diskquota Mehrbenutzer-BS brauchen einen Mechanismus zur Einhaltung der Plattenkontingente (disk quotas) Quota-Tabelle enthält Kontingenteinträge aller Benutzer

Mehr

Im Folgenden stellen wir Ihnen die überarbeiteten Leistungsmerkmale von Windows Server 2012 R2 vor.

Im Folgenden stellen wir Ihnen die überarbeiteten Leistungsmerkmale von Windows Server 2012 R2 vor. Microsoft Windows Server 2012 R2 Kapitel 1 Windows Server 2012 R2 Die erprobte Serverplattform Windows Server 2012 baut auf umfangreichen Erfahrungen mit dem Aufbau und dem Betrieb der weltgrößten Cloud-basierten

Mehr

Dynamic Computing Services Backup-Lösung. Whitepaper Stefan Ruckstuhl

Dynamic Computing Services Backup-Lösung. Whitepaper Stefan Ruckstuhl Dynamic Computing Services Backup-Lösung Whitepaper Stefan Ruckstuhl Zusammenfassung für Entscheider Inhalt dieses Whitepapers Eine Beschreibung einfach zu realisierender Backup-Lösungen für virtuelle

Mehr

Backup & Recovery Integrierte Komplettlösung

Backup & Recovery Integrierte Komplettlösung & Backup & Recovery Integrierte Komplettlösung CommVault Simpana + NetApp E-Series Die schnelle, effiziente und hochverfügbare Backup und Recovery- Lösung von ABO - Jetzt zum attraktiven Bundle-Preis bis

Mehr

Copyright 2015 DataCore Software Corp. All Rights Reserved. 1

Copyright 2015 DataCore Software Corp. All Rights Reserved. 1 Copyright 2015 DataCore Software Corp. All Rights Reserved. 1 Software Defined Storage - wenn Storage zum Service wird - Jens Gerlach Regional Manager West Copyright 2015 DataCore Software Corp. All Rights

Mehr

Veränderung der Speicherlandschaft durch Speicher-Virtualisierung

Veränderung der Speicherlandschaft durch Speicher-Virtualisierung Veränderung der Speicherlandschaft durch Speicher-Virtualisierung Andreas Sänger Channel Account Manager 1 Speicherbedarf nimmt weiter rasant zu - aber ohne Nachhaltigkeit - 2 Herausforderungen der Speicherarchitekturen

Mehr

Storage News wie viele IOPS sind zeitgemäß? Mathias Riediger & Sven Willholz Systems Engineering

Storage News wie viele IOPS sind zeitgemäß? Mathias Riediger & Sven Willholz Systems Engineering Storage News wie viele IOPS sind zeitgemäß? Mathias Riediger & Sven Willholz Systems Engineering 1 Agenda Was macht NetApp eigentlich? NetApp Portfolio Wie viel IOPs sind zeitgemäß? Q & A 2 Was macht NetApp

Mehr

DATA DOMAIN BACKUP-TO-DISK MIT DEDUPLIKATION

DATA DOMAIN BACKUP-TO-DISK MIT DEDUPLIKATION DATA DOMAIN BACKUP-TO-DISK MIT DEDUPLIKATION BACKUP-TO-DISK AUF EIN FESTPLATTENSYSTEM Festplatten zur Verwendung mit einer Backup-Software: z. B. EMC NetWorker DiskBackup Option Restore erfolgt von Festplatte

Mehr

WINDOWS AZURE IM ÜBERBLICK GANZ NEUE MÖGLICHKEITEN

WINDOWS AZURE IM ÜBERBLICK GANZ NEUE MÖGLICHKEITEN WINDOWS AZURE IM ÜBERBLICK GANZ NEUE MÖGLICHKEITEN Dr. Bernd Kiupel Azure Lead Microsoft Schweiz GmbH NEUE MÖGLICHKEITEN DURCH UNABHÄNGIGKEIT VON INFRASTRUKTUR BISHER: IT-Infrastruktur begrenzt Anwendungen

Mehr

IT-Effizienzworkshop bei New Vision GmbH Entry und Midrange Disksysteme

IT-Effizienzworkshop bei New Vision GmbH Entry und Midrange Disksysteme IT-Effizienzworkshop bei New Vision GmbH Entry und Midrange Disksysteme IBM DSseries Familienüberblick DS5100, DS5300 FC, iscsi connectivity (480) FC, FDE, SATA, SSD drives Partitioning, FlashCopy, VolumeCopy,

Mehr

Scale-Up oder Scale Out?

Scale-Up oder Scale Out? Scale-Up oder Scale Out? Ein Leben ohne Hindernisse mit dem neuen Speicher-Betriebssystem von NetApp Mathias Riediger System Engineer NetApp ein Portfolio Anbieter! EF-Series E-Series FAS 2220 FAS 2240

Mehr

Technische Anwendungsbeispiele

Technische Anwendungsbeispiele Technische Anwendungsbeispiele NovaBACKUP NAS Ihre Symantec Backup Exec Alternative www.novastor.de 1 Über NovaBACKUP NAS NovaBACKUP NAS sichert und verwaltet mehrere Server in einem Netzwerk. Die Lösung

Mehr

KASPERSKY SECURITY FOR VIRTUALIZATION

KASPERSKY SECURITY FOR VIRTUALIZATION KASPERSKY SECURITY FOR VIRTUALIZATION SCHUTZ FÜR SERVER, DESKTOPS & RECHENZENTREN Joachim Gay Senior Technical Sales Engineer Kaspersky Lab EXPONENTIELLER ANSTIEG VON MALWARE 200K Neue Bedrohungen pro

Mehr

Backup und Restore. in wenigen Minuten geht es los. KEIN VOIP, nur Tel: 069 / 25511 4400 www.webex.de Sitzungsnr.: 956 738 575 #

Backup und Restore. in wenigen Minuten geht es los. KEIN VOIP, nur Tel: 069 / 25511 4400 www.webex.de Sitzungsnr.: 956 738 575 # in wenigen Minuten geht es los Backup und Restore In virtuellen Umgebungen KEIN VOIP, nur Tel: 069 / 25511 4400 www.webex.de Sitzungsnr.: 956 738 575 # Backup und Restore In virtuellen Umgebungen BACKUP

Mehr

Infrastruktur-Lösungen für PDM/PLM und mehr. 2. IT-Expertenforum 24.06.2010 in Aalen

Infrastruktur-Lösungen für PDM/PLM und mehr. 2. IT-Expertenforum 24.06.2010 in Aalen 2. IT-Expertenforum 24.06.2010 in Aalen Backup heute: Hauptprobleme Operative Aspekte Gängigste technische Probleme beim Backup und Recovery: 66 % Backup-Fenster einhalten 49 % Zu langes Recovery 40 %

Mehr

Umstellung der Windows Server 2003-Infrastruktur auf eine moderne Lösung von Cisco und Microsoft

Umstellung der Windows Server 2003-Infrastruktur auf eine moderne Lösung von Cisco und Microsoft Lösungsüberblick Umstellung der Windows Server 2003-Infrastruktur auf eine moderne Lösung von Cisco und Microsoft Am 14. Juli 2015 stellt Microsoft den Support für alle Versionen von Windows Server 2003

Mehr

FLASHRECOVER SNAPSHOTS. Sofortige, unlimitierte Snapshots, speziell für 100 % Flash-Speicherung

FLASHRECOVER SNAPSHOTS. Sofortige, unlimitierte Snapshots, speziell für 100 % Flash-Speicherung FLASHRECOVER SNAPSHOTS Sofortige, unlimitierte Snapshots, speziell für 100 % Flash-Speicherung FLASHRECOVER SNAPSHOTS BIETEN EFFIZIENTE, SKALIERBARE UND LEICHT ZU VERWALTENDE SNAPSHOTS OHNE KOMPROMISSE

Mehr

Acronis Backup Advanced für Citrix XenServer

Acronis Backup Advanced für Citrix XenServer Acronis Backup Advanced für Citrix XenServer Vollständiges Backup und Recovery für Ihre Citrix XenServer- Umgebung! Schützen Sie Ihre komplette Citrix XenServer-Umgebung mit effizienten Backups in einem

Mehr

WICHTIGE GRÜNDE FÜR EMC FÜR DAS ORACLE-LIFECYCLE-MANAGEMENT

WICHTIGE GRÜNDE FÜR EMC FÜR DAS ORACLE-LIFECYCLE-MANAGEMENT WICHTIGE GRÜNDE FÜR EMC FÜR DAS ORACLE-LIFECYCLE-MANAGEMENT ÜBERBLICK ORACLE-LIFECYCLE-MANAGEMENT Flexibilität AppSync bietet in das Produkt integrierte Replikationstechnologien von Oracle und EMC, die

Mehr

Arrow - Frühjahrs-Special

Arrow - Frühjahrs-Special Arrow ECS GmbH Industriestraße 10a 82256 Fürstenfeldbruck T +49 (0) 81 41 / 35 36-0 F +49 (0) 81 41 / 35 36-897 Arrow - Frühjahrs-Special Hardware- und Software-Pakete, die überzeugen info@arrowecs.de

Mehr

Die maßgeschneiderte IT-Infrastruktur aus der Südtiroler Cloud

Die maßgeschneiderte IT-Infrastruktur aus der Südtiroler Cloud Die maßgeschneiderte IT-Infrastruktur aus der Südtiroler Cloud Sie konzentrieren sich auf Ihr Kerngeschäft und RUN AG kümmert sich um Ihre IT-Infrastruktur. Vergessen Sie das veraltetes Modell ein Server,

Mehr

Storage Flash Technologie - Optionen für Ihren Erfolg

Storage Flash Technologie - Optionen für Ihren Erfolg Storage Flash Technologie - Optionen für Ihren Erfolg Kennen sie eigentlich noch. 2 Wie maximieren Sie den Wert Ihrer IT? Optimierung des ROI von Business-Applikationen Höchstmögliche IOPS Niedrigere Latenz

Mehr

Automatisierung Rationalisierung

Automatisierung Rationalisierung Steigerung der Effizienz durch Automatisierung von Prozessen - Verbesserung der Qualität - Erhöhte Effizienz - Standardisierung von Abläufen - Simulation vor Investition Chancen: - Stärkere Verknüpfung

Mehr

Veränderungen von. Erster Kunde implementiert Innovation. Vorteil im Wettbewerb. Zweiter Kunde implementiert Innovation

Veränderungen von. Erster Kunde implementiert Innovation. Vorteil im Wettbewerb. Zweiter Kunde implementiert Innovation Veränderungen von Erster Kunde implementiert Innovation Vorteil im Wettbewerb Zweiter Kunde implementiert Innovation Dritter Kunde implementiert Innovation Zeit Fokussierung der IT Ausgaben Hier macht

Mehr

Tivoli Storage Manager für virtuelle Umgebungen

Tivoli Storage Manager für virtuelle Umgebungen Tivoli Storage Manager für virtuelle Umgebungen Sprecher: Jochen Pötter 1 Hinterfragen Sie den Umgang mit ihren virtuellen Maschinen Sichern Sie ihre virtuelle Umgebung? Wie schützen Sie aktuell ihre virtuelle

Mehr

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick:

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Red Hat Storage Server Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Offene Software Lösung für Storage Ansprache über einen globalen Namensraum Betrachtet Storage als einen virtualisierten

Mehr

Software Defined Storage

Software Defined Storage Software Defined Storage - Wenn Speicher zum Service wird - Copyright 2015 DataCore Software Corp. All Rights Reserved. Copyright 2015 DataCore Software Corp. All Rights Reserved. Über uns... Über 25.000

Mehr

GESCHÄFTSKRITISCHE ORACLE- UMGEBUNGEN MIT VMAX 3

GESCHÄFTSKRITISCHE ORACLE- UMGEBUNGEN MIT VMAX 3 GESCHÄFTSKRITISCHE ORACLE- UMGEBUNGEN MIT VMAX 3 GESCHÄFTSKRITISCHE GRUNDLAGEN Leistungsstark Hybridspeicher mit flashoptimierten Performance-Service-Levels nach Maßfür geschäftskritische Oracle Workloads;

Mehr

Auf der Welle der Virtualisierung ein Blick in die Zukunft mit Quest Software

Auf der Welle der Virtualisierung ein Blick in die Zukunft mit Quest Software Auf der Welle der Virtualisierung ein Blick in die Zukunft mit Quest Software Dipl. Ing. Stefan Bösner Sr. Sales Engineer DACH Stefan.Boesner@quest.com 2010 Quest Software, Inc. ALL RIGHTS RESERVED Vizioncore

Mehr

VALUESTOR /// MEHRWERT IN DER LANGFRISTIGEN DATENSPEICHERUNG BEST IN DEVELOPMENT AND TECHNOLOGY

VALUESTOR /// MEHRWERT IN DER LANGFRISTIGEN DATENSPEICHERUNG BEST IN DEVELOPMENT AND TECHNOLOGY VALUESTOR /// MEHRWERT IN DER LANGFRISTIGEN DATENSPEICHERUNG BEST IN DEVELOPMENT AND TECHNOLOGY VALUESTOR /// MEHRWERT IN DER LANGFRISTIGEN DATENSICHERUNG Machen Sie sich die Vorteile von Tape zu Nutze,

Mehr

W i r p r ä s e n t i e r e n

W i r p r ä s e n t i e r e n W i r p r ä s e n t i e r e n Verbesserte Optik Internet-Schutz neu erfunden Malware kann Sie immer raffinierter ausspionieren. Können Ihre smaßnahmen da mithalten? CA konzentrierte sich auf IT-Experten

Mehr

egs Storage Offensive

egs Storage Offensive egs Storage Offensive Seit mittlerweile 5 Jahren können wir eine enge Partnerschaft zwischen der egs Netzwerk und Computersysteme GmbH und dem führenden Anbieter im Bereich Datenmanagement NetApp vorweisen.

Mehr

WILLKOMMEN 100.000. Quantum ist der weltweit GRÖSSTE Spezialist für Backup, Recovery und Archivierung von Daten.

WILLKOMMEN 100.000. Quantum ist der weltweit GRÖSSTE Spezialist für Backup, Recovery und Archivierung von Daten. 85 der Fortune 100-Unternehmen arbeiten mit Quantum 10 -mal Produkt des Jahres WILLKOMMEN Quantum ist der weltweit GRÖSSTE Spezialist für Backup, Recovery und Archivierung von Daten. 33 Jahre Branchenerfahrung

Mehr

Tutorial Speichernetze

Tutorial Speichernetze Tutorial Speichernetze Speichervirtualisierung Speichernetze Grundlagen und Einsatz von Fibre Channel SAN, NAS, iscsi und InfiniBand dpunkt.verlag 2003 Agenda Probleme in Speichernetzen Speichervirtualisierung

Mehr

Die Jagd nach Backup-Duplikaten wird jetzt noch effektiver. DXi4700 Deduplizierungs-Appliance

Die Jagd nach Backup-Duplikaten wird jetzt noch effektiver. DXi4700 Deduplizierungs-Appliance Die Jagd nach Backup-Duplikaten wird jetzt noch effektiver DXi4700 Deduplizierungs-Appliance Vielleicht die effizienteste, günstigste und leistungsfähigste Die Appliance setzt branchenweit neue Maßstäbe

Mehr

Alles Spricht von RAID-Verband

Alles Spricht von RAID-Verband Alles Spricht von RAID-Verband Der Begriff "RAID" fiel in der Vergangenheit lediglich in dem Zusammenhang von Server-PC's. Doch heutzutage, wo die PC-Hardware immer günstiger werden und das Interesse an

Mehr

Managed Cloud Services

Managed Cloud Services Managed Cloud Services Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Cloud Services

Mehr

VIRTUALISIERUNG AM BEISPIEL EINER KUNDENINFRASTRUKTUR. Christian Ellger Dell GmbH

VIRTUALISIERUNG AM BEISPIEL EINER KUNDENINFRASTRUKTUR. Christian Ellger Dell GmbH VIRTUALISIERUNG AM BEISPIEL EINER KUNDENINFRASTRUKTUR Christian Ellger Dell GmbH DIE ZUKUNFT IST VIRTUELL APP so APP so PHYSIKALISCHE SERVER/STORAGE Vol Vol APP so Vol APP APP Vol so so Vol APP so Vol

Mehr

Konzept für eine Highperformance- und Hochverfügbarkeitslösung für. einen Anbieter von Krankenhaus Abrechnungen

Konzept für eine Highperformance- und Hochverfügbarkeitslösung für. einen Anbieter von Krankenhaus Abrechnungen Konzept für eine Highperformance- und Hochverfügbarkeitslösung für Anforderungen : einen Anbieter von Krankenhaus Abrechnungen Es soll eine Cluster Lösung umgesetzt werden, welche folgende Kriterien erfüllt:

Mehr

DELL On-Demand Desktop Streaming-Referenzarchitektur (ODDS) (Bedarfsbasierte Desktop- Streaming-Referenzarchitektur)

DELL On-Demand Desktop Streaming-Referenzarchitektur (ODDS) (Bedarfsbasierte Desktop- Streaming-Referenzarchitektur) DELL On-Demand Desktop Streaming-Referenzarchitektur (ODDS) (Bedarfsbasierte Desktop- Streaming-Referenzarchitektur) Ein technisches White Paper von Dell ( Dell ). Mohammed Khan Kailas Jawadekar DIESES

Mehr

Datenspeicherung im Zeitalter der Massendigitalisierung

Datenspeicherung im Zeitalter der Massendigitalisierung Datenspeicherung im Zeitalter der Massendigitalisierung Dr. Bernd Reiner Bernd.Reiner@lrz.de Übersicht Datenspeicherung zwischen Wunsch und Realität Anforderungen an ein LZA-Speichersystem Datenspeicher

Mehr

Infrastrukturanalyse Ihr Weg aus dem Datenstau

Infrastrukturanalyse Ihr Weg aus dem Datenstau Waltenhofen * Düsseldorf * Wiesbaden Infrastrukturanalyse Ihr Weg aus dem Datenstau SCALTEL Webinar am 20. Februar 2014 um 16:00 Uhr Unsere Referenten Kurze Vorstellung Stefan Jörg PreSales & Business

Mehr

Software Defined Storage in der Praxis

Software Defined Storage in der Praxis Software Defined Storage in der Praxis - Vorteile und Nutzen für jede Unternehmensgröße - Torsten Welke Regional Manager Nord 1 Speicherbedarf nimmt weiter rasant zu - aber ohne Nachhaltigkeit - 2 Herausforderungen

Mehr

WHITEPAPER BAWÜ-CLOUD.DE CTERA-LÖSUNG

WHITEPAPER BAWÜ-CLOUD.DE CTERA-LÖSUNG WHITEPAPER BAWÜ-CLOUD.DE CTERA-LÖSUNG STAND: JUNI 2012 Carl-Zeiss-Str. 5 72124 Pliezhausen Tel: +49 (7127) 988-0 Fax: +49 (7127) 988-200 E-Mail: office@schmieder.de www.bawü-cloud.de by SCHMIEDER it-solutions

Mehr

E-Interview mit Herrn Dr. Winokur, CTO von Axxana

E-Interview mit Herrn Dr. Winokur, CTO von Axxana E-Interview mit Herrn Dr. Winokur, CTO von Axxana Titel des E-Interviews: Kostengünstige Datenrettung ohne Verlust und über alle Distanzen hinweg wie mit Enterprise Data Recording (EDR) von Axxana eine

Mehr

4 Planung von Anwendungsund

4 Planung von Anwendungsund Einführung 4 Planung von Anwendungsund Datenbereitstellung Prüfungsanforderungen von Microsoft: Planning Application and Data Provisioning o Provision applications o Provision data Lernziele: Anwendungen

Mehr

STORAGE IN DEUTSCHLAND 2013

STORAGE IN DEUTSCHLAND 2013 Fallstudie: NetApp IDC Market Brief-Projekt STORAGE IN DEUTSCHLAND 2013 Optimierung des Data Centers durch effiziente Speichertechnologien netapp Fallstudie: Thomas-Krenn.AG Informationen zum Unternehmen

Mehr

Storage Virtualisierung

Storage Virtualisierung Storage Virtualisierung Einfach & Effektiv 1 Agenda Überblick Virtualisierung Storage Virtualisierung Nutzen für den Anwender D-Link IP SAN Lösungen für virtuelle Server Umgebungen Fragen 2 Virtualisierung

Mehr

Backup unter Kontrolle behalten mit Deduplizierung geht das! Bernhard Hoedel 3. IT-Expertenforum 30.6.2011

Backup unter Kontrolle behalten mit Deduplizierung geht das! Bernhard Hoedel 3. IT-Expertenforum 30.6.2011 Backup unter Kontrolle behalten mit Deduplizierung geht das! Bernhard Hoedel 3. IT-Expertenforum 30.6.2011 INNEO IT Bernhard Hödel, Consultant bhoedel@inneo.com Telefon +49 (0) 170 4500673 Seit 10 Jahren

Mehr

BUILD YOUR BUSINESS ...MIT COMMVAULT & BCD-SINTRAG

BUILD YOUR BUSINESS ...MIT COMMVAULT & BCD-SINTRAG BUILD YOUR BUSINESS...MIT COMMVAULT & BCD-SINTRAG BAUEN SIE AUF DIE NEUEN SIMPANA SOLUTION SETS Bringen Sie hochprofessionelles Datenmanagement zu Ihren Kunden! BACKUP & RECOVERY I CLOUD MANAGEMENT I ENDPUNKTDATENSCHUTZ

Mehr

Datensicherung leicht gemac

Datensicherung leicht gemac Datensicherung leicht gemac Im heutigen geschäftlichen Umfeld, in dem Unternehmen online agieren und arbeiten, hängt der Erfolg Ihres Unternehmens davon ab, ob Sie die Systeme, Anwendungen und zugehörigen

Mehr

IT Systeme / Enterprise Storage Solutions Drobo B1200i 12-Slot 24TB Application- Optimized Storage für den Mittelstand IT

IT Systeme / Enterprise Storage Solutions Drobo B1200i 12-Slot 24TB Application- Optimized Storage für den Mittelstand IT IT Systeme / Enterprise Storage Solutions Drobo B1200i 12-Slot 24TB Application- Optimized Storage für den Mittelstand IT Seite 1 / 5 Drobo B1200i Application-Optimized Storage für den Mittelstand IT Connectivity:

Mehr

TELEKOM CLOUD COMPUTING. NEUE PERSPEKTIVEN. Dietrich Canel Telekom Deutschland GmbH 03/2013 1

TELEKOM CLOUD COMPUTING. NEUE PERSPEKTIVEN. Dietrich Canel Telekom Deutschland GmbH 03/2013 1 TELEKOM CLOUD COMPUTING. NEUE PERSPEKTIVEN. Dietrich Canel Telekom Deutschland GmbH 03/2013 1 DIE TELEKOM-STRATEGIE: TELCO PLUS. 2 AKTUELLE BEISPIELE FÜR CLOUD SERVICES. Benutzer Profile Musik, Fotos,

Mehr

Migration von Ontap 7-Mode zu Clustered ONTAP

Migration von Ontap 7-Mode zu Clustered ONTAP Migration von Ontap 7-Mode zu Clustered ONTAP Steffen Schwung Agenda Überblick Warum überhaupt migrieren Prüfung der Voraussetzungen Vorbereitung der Migration Migrationswerkzeuge Management der Datenmigration

Mehr

NEUE TECHNOLOGISCHE ANSÄTZE ZUM STORAGE TIERING

NEUE TECHNOLOGISCHE ANSÄTZE ZUM STORAGE TIERING NEUE TECHNOLOGISCHE ANSÄTZE ZUM STORAGE TIERING Frank Herold SrMgr PreSales EMEA Munich 20.06.2013 Quantum Lösungen BIG DATA DATENSICHERUNG CLOUD Mehrstufige Lösungen und Wide Area Storage Deduplizierungssysteme

Mehr

Dedup-Technik wie funktioniert es?

Dedup-Technik wie funktioniert es? Dedup-Technik wie funktioniert es? v.1.3. Stand: Oktober 2010 Wiesbaden Deduplizierung Wie funktioniert es? 2 Inhalt Was ist Deduplizierung? Was bewirkt Deduplizierung? Source- Target- und Speichermanagement-Deduplizierung

Mehr

Achim Marx Mittwoch, 2. Oktober 2013 S&L Netzwerktechnik GmbH 1

Achim Marx Mittwoch, 2. Oktober 2013 S&L Netzwerktechnik GmbH 1 Achim Marx 1 Überblick SCDPM 2012 SP1 Was macht der Data Protection Manager? Systemanforderungen Neuerungen Editionen Lizenzierung SCDPM und VEEAM: Better Together 2 Was macht der Data Protection Manager?

Mehr

PoINT Storage Manager Installation

PoINT Storage Manager Installation PoINT Software & Systems GmbH PoINT Storage Manager Installation (Neuss) Anforderungen Installation 1. Transparente NetApp MetroCluster Auslagerung und Archivierung 2. Transparente PACS Daten Archivierung

Mehr

CAFM als SaaS - Lösung

CAFM als SaaS - Lösung CAFM als SaaS - Lösung cafm (24) - Deutschlands erste Plattform für herstellerneutrales CAFM-Hosting Inhaltsübersicht Inhaltsübersicht... 1 Die eigene CAFM-Software in der Cloud... 2 Vorteile... 3 Wirtschaftliche

Mehr

Jetz' red' I SSD... NAS... RAID... An diese Folien wird gearbeitet. Hinweise sind willkommen.

Jetz' red' I SSD... NAS... RAID... An diese Folien wird gearbeitet. Hinweise sind willkommen. An diese Folien wird gearbeitet. Hinweise sind willkommen. Vortrag wurde mit Open Office Impress erstellt, wie Powerpoint, nur kostenlos :-) Dieser Foliensatz ist 10.01.2014 Jetz' red' I SSD: Solid-State-

Mehr

HP STOREVIRTUAL STORAGE. Erweiterbarer Speicher für virtualisierte Umgebungen

HP STOREVIRTUAL STORAGE. Erweiterbarer Speicher für virtualisierte Umgebungen STORAGE Erweiterbarer Speicher für virtualisierte Umgebungen STORAGE 1. HP Disk Storage Systeme 2. HP StoreVirtual Hardware 3. HP StoreVirtual Konzept 4. HP StoreVirtual VSA 5. HP StoreVirtual Management

Mehr

AU HAUSMESSE / STORAGEDAYS 2013 / Zeitplanung und Themen-Information

AU HAUSMESSE / STORAGEDAYS 2013 / Zeitplanung und Themen-Information AU HAUSMESSE / STORAGEDAYS 2013 Wann: 11.06.-13.06.2013 Wo: AU Geschäftsstelle Reutlingen // Birnenweg 15 // 72766 Reutlingen Die Themen und Zeiten Check-In 08:30-09:00h Eintreffen und Check-In Technologie-Vortragsreihe

Mehr

Die Vorteile von Multicore-UTM. Umfassender Echtzeit-Schutz jenseits der Geschwindigkeitsbarriere

Die Vorteile von Multicore-UTM. Umfassender Echtzeit-Schutz jenseits der Geschwindigkeitsbarriere Die Vorteile von Multicore-UTM Umfassender Echtzeit-Schutz jenseits der Geschwindigkeitsbarriere Inhalt Netzwerksicherheit wird immer komplexer 1 UTM ist am effizientesten, wenn ganze Pakete gescannt werden

Mehr