Storage Guide. Grundlagen Technologien Lösungen. Ausgabe 26 Juni Backup für Big Data. Mehr Effizienz für den Storage

Größe: px
Ab Seite anzeigen:

Download "Storage Guide. Grundlagen Technologien Lösungen. Ausgabe 26 Juni 2012. Backup für Big Data. Mehr Effizienz für den Storage"

Transkript

1 Grundlagen Technologien Lösungen Storage Guide Ausgabe 26 Juni 2012 Backup für Big Data Mehr Effizienz für den Storage Flexible Sicherungen in Mischumgebungen Scale-out-NAS für extreme Datenmengen Neue Technologien für schnelleres Backup Highend-Cache für Datenbanken Unified Storage im Cluster Kombinationen aus Diskund Tape-Devices

2 Zum Thema Speichereffizienz Innen größer als außen Die Storage-Systeme von NetApp Man muss nicht alles speichern, was man speichern muss. Will heißen, dass Daten, die doppelt und dreifach gespeichert wurden, nur Speicherplatz verschwenden. Die Software von NetApp dedupliziert diese Daten und zusammen mit der überaus sparsamen Snapshot-Technologie sowie einigen andere cleveren Funktionen können Sie Ihren Speicherbedarf je nach Anwendung und Einsatzbereich um bis zu 80% reduzieren. Das spart Platz, Geld und Energie NetApp. Alle Rechte vorbehalten. Änderungen vorbehalten. NetApp, das NetApp Logo und Go further, faster sind Marken oder eingetragene Marken von NetApp Inc. in den USA und/oder anderen Ländern. Alle anderen Marken oder Produkte sind Marken oder eingetragene Marken der jeweiligen Rechtsinhaber.

3 Editorial Ist die Größe entscheidend? Ein Thema, das wahrscheinlich schon für unterschiedlichste Bereiche diskutiert wurde! Beim aktuellen Hype um Big Data interessiert den Betrachter erst einmal: Was bedeutet groß im Zusammenhang mit Daten? Habe ich Big Data und brauche ich in diesem Zusammenhang neue, spezielle Lösungsansätze? Big Data bezeichnet außergewöhnlich große Datenmengen, die in Bezug auf die Haltung, Sicherung, Verarbeitung, Analyse und Bereitstellung eine besondere Herausforderung darstellen. Dazu kommt, dass häufig unterschiedlichste Datentypen und -quellen zusammenkommen und analysiert werden müssen. Probleme entstehen hierbei grundsätzlich in den verschiedensten Elementen der IT-Infrastruktur, wie auch bei der Nutzung der Informationen und den damit verbundenen Prozessen und Ressourcen. Habe ich Big Data oder welches Volumen ist in diesem Zusammenhang als groß zu bewerten? In vielen Publikationen schwanken die Angaben von Terabytes bis über Zettabytes. Der Grund hierfür ist, dass nicht eine nominell definierbare Größe Big Data klassifiziert, sondern die Herausforderung, die mit einem steigenden Datenvolumen beginnt. Oder mit anderen Worten: Es kommt darauf an, ob das hohe Datenvolumen für die eigenen Anforderungen ein Problem darstellt, das mit herkömmlichen Ansätzen nicht zu lösen ist. Bei den bisherigen Wachstumsraten und den Prognosen für die kommenden Jahre könnte man jetzt davon ausgehen, dass sich die meisten Unternehmen früher oder später in einer Big Data -Situation befinden. Tatsächlich lassen sich aber die meisten Herausforderungen über die Kombination von jeweils aktueller Technologie mit einem angepassten Datenmanagement bewältigen. Wenn diese Möglichkeit nicht mehr ausreicht, um den Anspruch an Verfügbarkeit und Performance der Informationsverarbeitung zu erfüllen, kommen spezielle Technologien ins Spiel, die unter dem Begriff Big Data zusammengefasst sind. Somit ist nicht nur die Größe des Datenvolumens entscheidend, sondern auch die Art der Information, die Relevanz und der Anspruch an die Verfügbarkeit der Informationen. Um die einleitende Frage zu beantworten: Die Größe allein ist nicht entscheidend, es kommt auf die speziellen Rahmenparameter und Anforderungen an! Bijan Taleghani Leiter Produkt Marketing und Business Development TIM AG Ihr Feedback ist uns wichtig: Wie gefällt Ihnen der StorageGuide? Wird der Inhalt nach Ihrer Meinung informativ und kompetent behandelt? Gibt es ein Thema, über das Sie in der nächsten Ausgabe gerne lesen möchten? Ob Kritik oder Lob, wir freuen uns auf Ihre Anregungen! Stefanie Blank, TIM AG, , Inhalt Konsolidierte Datensicherung Mit der neuen Funktion OnePass führt CommVault in Simpana die Module für Backup, Archivierung und Reporting zusammen. Intelligentes Storage-Management Mit Dell Compellent lässt sich eine weitgehend automatische Storage-Verwaltung realisieren. Problemlöser CA ARCserve hält die Werkzeuge bereit, um auch in heterogenen Umgebungen alle Sicherungs aufgaben bewältigen zu können. Big Data im Griff EMC Isilon hat sich auf die Entwicklung von Storage-Systemen speziell für die Verarbeitung von extrem großen Datenmengen spezialisiert. Schnelleres Backup Symantec NetBackup 7.5 enthält neue Funk tionen, um die Sicherungsläufe zu beschleu nigen und zu vereinfachen. Performance-Boost per Cache Mit VFCache präsentiert EMC eine Lösung, um Anwendungen, die nach hohen IOPS-Raten verlangen, einen zusätzlichen Schub zu geben. Vereinfachte Skalierung Im Cluster-Mode von Data ONTAP 8.1 virtualisiert NetApp die Storage-Hardware und richtet einen einheitlichen Global Namespace ein. Disk und Tape im Zusammenspiel Quantum demonstriert, dass Tapes noch lange nicht tot sind, sondern sich mit Disk-basierten Systemen sinnvoll ergänzen. Impressum Eine Publikation der TIM AG Idee und Konzept: TIM AG, Schoßbergstr. 21, Wiesbaden Projektleitung: TIM AG, Stefanie Blank, Redaktion: twins ad, Roland Freist Design, Layout und Herstellung: twins ad, Full-Service Werbeagentur, Schwanthalerstr. 91, München, Die verwendeten Produktbezeichnungen und Markennamen sind eingetragene Warenzeichen der jeweiligen Hersteller.

4 CommVault Konsolidierte Datenverwaltung Im Zeitalter von Big Data sind neue Vorgehensweisen beim Sichern und Archivieren gefragt. CommVault stellt mit OnePass eine clevere Lösung bereit. Die Datenmenge, die weltweit erhoben, digital gespeichert und ausgewertet wird, steigt exponentiell an. Das Marktforschungsinstitut Gartner beziffert das jährliche Wachstum auf bis zu 80 Prozent, wozu vor allem einfache, unstrukturierte Anwenderdaten beitragen. Aber auch maschinell erzeugte Daten wie etwa die Protokolle von Telekommunikationsfirmen, die Aufzeichnungen zu den getätigten Finanztransaktionen an den großen Börsenplätzen oder die Messergebnisse von Wetterstationen nehmen rasant zu. Parallel dazu kämpfen auch Webdienste, Suchmaschinen, Social Networks, Buchungssysteme oder Webshops mit den riesigen Datenvolumen, die sich auf ihren Servern ansammeln. Für die IT-Abteilungen ergeben sich daraus neue Herausforderungen, da die herkömmlichen Backup-Anwendungen mit der Verarbeitung dieser Datenmengen oftmals überfordert sind. Zum einen fehlen die Ressourcen, um diese obwohl diese Module perfekt aufeinander abgestimmt sind, sodass keine Reibungsverluste entstehen, kann es bei der Bearbeitung von extrem großen Datenmengen zu den oben genannten Problemen kommen. CommVault hat daher die aktuelle Version 9 von Simpana mit einer Funktion ausgestattet, die den Umgang mit Big Data erheblich vereinfacht und beschleunigt. Diese Funktion namens OnePass ist ein integraler Bestandteil von Simpana und versetzt den Administrator in die Lage, seine Service Level Agreements (SLAs) trotz steigender Datenvolumina einzuhalten. Aus drei mach eins Das steckt dahinter: Die Simpana-Module für das Backup, die Archivierung und das Reporting verwenden jeweils eigene Agenten. Diese greifen zwar im Backup auf die gleiche Infrastruktur zurück, man kann sie also über das Gleichzeitig sinkt auch der administrative Aufwand. Auf diese Weise lassen sich mit den vorhandenen Systemen auch größere Datenmengen verarbeiten. Bei großen Datenvolumen wird jedes Kopieren oder Verschieben von Daten zu einem zeitraubenden Vorgang. Um die Datenbewegungen daher so gering wie möglich zu halten, führt OnePass ausschließlich inkrementelle File- Backups durch. Nach einer ersten Vollsicherung werden immer nur noch die Daten gesichert, die seit dem letzten inkrementellen Backup neu hinzugekommen sind oder sich verändert haben. Erst im Nachhinein führt Simpana dann synthetische Vollbackups durch, setzt also die in krementellen Backup-Sätze zu Vollsicherungen zusammen. Zusammenfassend lässt sich OnePass also als eine Funktion beschreiben, die die wichtigsten Sicherungsvorgänge zusammenfasst und damit verkürzt sowie die Nachbearbeitung der Daten nachgelagert in die Infrastruktur von Simpana verlegt. Der Kunde hat die Wahl Durch den kombinierten Prozess wird die Dauer für Backup, Archivierung und Reporting im Vergleich zu traditionellen Methoden erheblich verkürzt. Massen an unstrukturierten Daten zu analysieren und zu indexieren. Zum anderen sind aber auch die Backup-Zeitfenster zu klein, um die Daten zu sichern und zu archivieren. Um diese Probleme adressieren und gezielt Lösungsmöglichkeiten entwickeln zu können, werden große, unstrukturierte Datenmengen im Tera-, Petaoder Exabyte-Bereich mittlerweile unter dem Begriff Big Data zusammengefasst. Mit Simpana bietet CommVault eine Lösung an, die auf einer Plattform Module unter anderem für die Datenanalyse, das Backup, die Archivierung, das Storage Ressource Management und die Deduplizierung vereint. Doch gleiche Job-Management, die gleiche grafische Oberfläche und das gleiche Reporting verwalten. Trotzdem sind es drei verschiedene Agenten, die ihre Arbeit unabhängig voneinander erledigten. Mit OnePass hat CommVault die Integration der einzelnen Module nun noch einen Schritt weitergeführt und die Agenten für Backup, Archivierung und Reporting zu einem zusammengefasst. Das hat den Vorteil, dass die drei Vorgänge von einem gemeinsamen Prozess erledigt werden und nur noch eine Scan-Phase erforderlich ist. Damit verkürzt sich die Ausführung um mehr als 50 Prozent und nimmt zudem weniger Hardware-Ressourcen in Anspruch. Neben OnePass sind in Simpana aber auch nach wie vor die spezialisierten Agenten verfügbar. Der Kunde hat also die Wahl, ob er OnePass einsetzen will oder die Einzel-Agenten. Auf diese Weise ist er flexibel und kann beispielsweise die Backup-Funktion von Simpana nutzen und die Archivierung mit einem anderen Produkt erledigen. Die Flexibilität bleibt auf diese Weise aber auch in anderer Hinsicht gewahrt. Wenn Backup und Archivierung über den Agenten von OnePass durchgeführt werden, landen alle Daten zunächst im Simpana ContentStore, einem virtuellen Datenspeicher. Erst danach werden die zur Archivierung bestimmten Daten regel gesteuert verschoben und im Zuge eines Stubbing-Prozesses durch Verweise auf die im Archiv gespeicherten Kopien der Datensätze ersetzt. Es ist jedoch technisch nicht möglich, Backup und Archivierung von vornherein auf unterschiedliche Speicher-Subsysteme auszuführen, also beispielsweise aktuelle Daten für schnelle Restore-Vorgänge auf Festplatte zu sichern und gleichzeitig weniger oft benötigte Daten für eine längerfristige Aufbewahrung auf Tape zu verschieben. Das lässt sich jedoch nach wie vor mit den Einzel-Agenten organisieren. Welche Methode im Einzelfall jeweils vorteilhafter ist, wird im Beratungsgespräch beim Kunden geklärt. Weitere Informationen: TIM AG Tel

5 DELL Intelligentes Storage-Management Mit den Compellent-Systemen bietet Dell besonders effiziente und einfach zu verwaltende professionelle Storage-Lösungen an. Die aktuelle Situation in der IT-Landschaft ist gekennzeichnet durch drei große Herausforderungen: ein rasantes, oftmals unvorhergesehenes Datenwachstum, eine immer raschere Abfolge von neuen Anforderungen an die IT- Abteilungen und Massenspeicher-Strukturen, die sich nur schwer an die veränderten Bedingungen anpassen lassen. Vor allem der Siegeszug der Mobilgeräte bereitet den Administratoren Kopfschmerzen: Die Anwender verlangen zunehmend nach einem zeit- und ortsunabhängigen Zugriff auf die Unternehmensdaten, und zwar von allen ihren Geräten aus. Dazu zählen neben den klassischen Notebooks zunehmend auch Tablet-Computer und Smartphones. Gleichzeitig ist ein immer größerer Aufwand erforderlich, um die ständig wachsenden Datenvolumen in den Unternehmen zu verwalten, zu pflegen und vor Verlust und unberechtigten Zugriffen zu schützen. Da die Budgets der IT- Abteilungen mit diesen Entwicklungen nicht Schritt halten, sind neue Lösungen gefragt, die den Administrator entlasten und das Datenmanagement stärker automatisieren. Dabei sollten sie natürlich auch mit den enormen Datenbeständen der heutigen Zeit umgehen können. Mehr Effizienz heißt das Schlagwort, mit dem sich die Anforderungen an ein modernes Storage-System zusammenfassen lassen. Das hat sich auch Compellent auf die Fahnen geschrieben, eine Firma, die seit rund zwei Jahren zu Dell gehört. Die Compellent-Technologie Compellent ist heute eine Storage-Marke von Dell. Die Firma vertreibt unter dieser Bezeichnung das Storage Center, ein SANbasiertes Storage-System. Es verwendet die von Compellent entwickelte Fluid-Data-Architektur, mit der die gespeicherten Daten auf Blockebene aktiv und intelligent verwaltet werden. Die Compellent-Systeme arbeiten mit sogenannten Pages, in denen sie die Datenblöcke zusammenfassen. Die Größe dieser Pages lässt sich zwischen 512 KByte und 4 MByte konfigurieren, der Standardwert sind 2 MByte. Zu jeder dieser Pages werden Metadaten erfasst, in denen unter anderem festgehalten ist, zu welchem Volume die Page gehört, auf welchem RAID- Level sie aktuell liegt und wann die Daten das letzte Mal angefordert wurden. Diese Metadaten ermöglichen es, den Storage zu virtualisieren. Dabei wird die gesamte Speicherkapazität zu einem großen Pool zusammengefasst. Wenn in einem SAN etwa 30 Terabyte SATA-Platten und 10 Terabyte SSDs vorhanden sind, stellt Compellent das als einen Pool von 40 Terabyte Storage dar. Der Clou ist dabei, dass das System über die Metadaten Dell Fluid Data - integriertes, intelligentes Management auf Blockebene und Automati sierung zur Verwaltung von Unternehmensdaten und zur Senkung der Gesamtspeicherkosten. weiß, wie sich die Speicherkapazität zusammensetzt und die Daten automatisch verteilt. Ein Beispiel: Eine Firma betreibt einen Webshop mit einer umfangreichen Datenbank- Anwendung. In dieser Datenbank liegen Stammdaten, die verhältnismäßig häufig angefordert werden, und Orderdaten, die mehrere Jahre zurückreichen. Die älteren Orderdaten werden lediglich noch aus rechtlichen Gründen aufbewahrt, aufgerufen werden sie nicht mehr. Ein Compellent-System würde nun feststellen, dass auf die Stammdaten sehr oft zugegriffen wird, und sie daher automatisch auf den SSD-Storage legen. Die seltener angefragten Orderdaten hingegen würde es auf die SATA- Platten verschieben. Ein Storage Center von Compellent beherrscht also ein klassisches Tiering. Doch im Unterschied zu Produkten anderer Hersteller erfolgt die Zuordnung der Daten zu den einzelnen Tier-Leveln automatisch. Es ist nicht einmal erforderlich, entsprechende Regeln zu definieren. Kommen neue Daten hinzu, werden sie zunächst auf das schnellste vorhandene Tier geschrieben. Über die Metadaten ermittelt das System dann, wie hoch die Nachfrage nach den einzelnen Pages ist und verschiebt sie auf die passenden Tiers. Da die Pages mit einem Volumen zwischen 512 KByte und 4 MByte verhältnismäßig klein ausfallen, ist gewährleistet, dass der vorhandene Storage mit optimaler Effizienz ausgenutzt wird. Der Administrator muss in diesen Vorgang nicht eingreifen, alles geschieht automatisch. Auch wenn zusätzliche Festplatten hinzugefügt werden, muss er nichts weiter tun das System nimmt sie in seinen Pool auf und reorganisiert selbstständig die Daten. Es gibt keine RAID-Verteilung wie bei anderen Systemen, und der Administrator muss auch keine Disk-Gruppen anlegen. Compellent-Systeme sind daher nicht nur besonders effizient, sondern auch besonders einfach zu verwalten. Neben dem automatischen Tiering beherrschen die Compellent-Systeme noch weitere Techniken zur optimalen Auslastung des Storage. Dazu gehören Thin Provisioning, Snapshots, die lediglich die Änderungen seit dem letzten Snapshot festhalten, sowie Thin Replication zum Kopieren der Snapshots auf Remote-Systeme. Alle zusammen tragen dazu bei, dass die Storage-Kosten gesenkt werden, während gleichzeitig der Verwaltungsaufwand so gering wie möglich ausfällt. Dell vom Reseller zum Hersteller Dell ist in den letzten Jahren vom Storage- Reseller zum Storage-Hersteller geworden. Gleichzeitig ist die Firma aber auch der drittgrößte PC-Hersteller der Welt und hat darüber hinaus auch verschiedene Server-Linien, Netzwerk-Zubehör, wie beispielsweise Switches und ein großes Repertoire an Peripherie-Geräten, wie etwa Drucker im Programm. Dell ist damit in der Lage, seinen Kunden eine komplette, aufeinander abgestimmte Infrastruktur zur Verfügung zu stellen. Da die Produkte aus dem eigenen Haus auf eine reibungslose Zusammenarbeit getestet werden, die Storage-Systeme etwa zusammen mit Servern und Switches, hat der Kunde die Gewähr, dass die Aufbau- und Konfigurationsphase sehr kurz ausfällt. Zudem kann er auf einen einheitlichen Support-Kanal zurück greifen auch das bringt mehr Effizienz in eine IT-Abteilung. Weitere Informationen: TIM AG Tel xx 4 5yy

6 CA Datensicherung in heterogenen, virtualisierten Infrastrukturen Mit den Produkten aus der CA ARCserve-Familie erhält der Kunde die Werkzeuge, um auf nahezu jede Herausforderung bei der Sicherung seiner Daten eine Antwort zu finden. Die Virtualisierung von Servern und Applikationen ist bereits seit mehreren Jahren ein erprobtes Mittel zur Effizienzsteigerung von Rechenzentren. Ein physischer Host kann mehrere virtuelle Maschinen aufnehmen, was zu einer besseren Auslastung der CPU führt, den Platzund Energiebedarf senkt und die Administratoren entlastet. Doch längst nicht alle Server sind virtualisiert. Laut den Daten der Marktforschungssite v-index.com liegt der Virtualisierungsgrad in Deutschland nur bei etwa 45 Prozent, wobei auf einen Host durchschnittlich sechs bis sieben Maschinen kommen. Parallel dazu existieren in nahezu allen Unternehmen dedizierte physische Server, bei denen eine Virtualisierung erst noch geplant ist oder die sich wegen Inkompatibilitäten oder hohem Ressourcenbedarf nicht virtualisieren lassen. Zu der letztgenannten Gruppe gehören vor allem große, unternehmenskritische Datenbanken und ERP-Systeme wie Oracle oder SAP. Neben dem Mix aus virtualisierten und physischen Servern ist für die meisten Rechenzentren eine gewachsene, heterogene IT-Infrastruktur mit unterschiedlichen Betriebs systemen und Applikationen mehrerer Hersteller typisch. Von dieser zentralen Stelle aus wird oft auch gleich die IT kleinerer Vertriebsniederlassungen betreut, meist mit einer Mischung aus Remote- Wartung und regelmäßigen Besuchen eines Technikers. Üblicherweise finden von diesen Zweigstellen aus vor allem Zugriffe auf die zentralen Datenbanken am Firmensitz statt, der Anteil lokal gespeicherter Daten ist eher gering. Meist handelt es sich sowohl bei den Servern wie auch bei den Clients um eine reine Windows-Umgebung. Virtualisierung beeinflusst Datensicherung Eine solche IT-Landschaft stellt die IT- Abteilung bei der Datensicherung vor einige Herausforderungen. Vor allem die Virtualisierung trägt dazu bei, dass Backup- und Restore- Vorgänge komplizierter werden. So ist zumeist gewünscht, dass nicht nur ein kompletter Host inklusive sämtlicher virtuellen Maschinen gesichert werden kann. Daneben soll es auch die Möglichkeit geben, gezielt einzelne Maschinen zu sichern und sie im Disaster-Recovery-Fall auch genauso granular wiederherzustellen. Und mehr noch: Oftmals geht es lediglich um eine einzige Datei, die versehentlich gelöscht wurde Microsoft Exchange geht es um einzelne - Nachrichten, die mitsamt Anhängen wiederhergestellt werden müssen, bei Datenbanken sind es Datensätze. Eine Backup-Anwendung sollte also auch einen Applikationsschutz bieten, der es ermöglicht, gezielt die Objekte der genannten Anwendungen zurückzuholen und das eben auch in virtuellen Umgebungen. Um die Daten der entfernten Außenstellen zu sichern, bietet sich eine Replikation auf die Server im Rechenzentrum der Unternehmenszentrale an. Auf diese Weise ist jederzeit eine Sicherungskopie der Daten verfügbar, ohne dass in den einzelnen Niederlassungen Manpower für die Verwaltung eingesetzt werden müsste. Wünschenswert ist natürlich, dass sich der Replikationsvorgang vom Rechenzentrum in der Unternehmenszentrale steuern lässt, sodass vor Ort keine Mitarbeiter dafür abgestellt werden müssen. CA ARCserve als umfassende Backup-Lösung CA ARCserve macht flexibel: Der Anwender kann Backups in der Außenstelle durchführen und die Daten in eine DR-Lokation replizieren oder die Daten zunächst in die Zentrale replizieren und dort konsolidiert sichern. und nun rekonstruiert werden soll. Dafür den Restore der gesamten virtuellen Maschine oder gar des Hosts einzuleiten, wäre äußerst ineffizient und viel zu zeitaufwendig. Stattdessen soll es möglich sein, auch einzelne Files aus virtuellen Umgebungen im Backup-Satz gezielt anzusteuern und an die alte Stelle zu kopieren. Doch nicht immer sind es Dateien, für die ein Restore benötigt wird. Bei Applikationen wie Mit den Produkten aus der ARCserve- Familie stellt CA Technologies eines der umfangreichsten Backup-Pakete auf dem Markt bereit. In der aktuellen Version r16 besteht es aus den Komponenten CA ARCserve Backup, CA ARC serve D2D, CA ARCserve Replication, CA ARCserve High Availability sowie den App- Erweiterungen CA ARCserve Central Protection Manager, CA ARCserve Central Virtual Standby, CA ARCserve Central Host-Based VM Backup und CA ARCserve Central Reporting. Mit ihren unterschiedlichen Ansätzen bei der Datensicherung bei gleichzeitiger Integration in eine größere Produktfamilie lassen sich damit praktisch alle Sicherungsaufgaben im Unternehmen lösen. Das Flaggschiff der ARCserve-Familie, CA ARCserve Backup, arbeitet sowohl mit physischen wie mit virtualisierten Servern zusammen und zeigt sich dabei äußerst flexibel: Sie unterstützt VMware, Microsoft Hyper-V und Citrix XenServer und kann einzelne virtuelle Maschinen genauso sichern wie den gesamten Server. Beim Restore ist es dann möglich, physische Maschinen auch in einer virtuellen Umgebung zu rekonstruieren. Und ganz gleich, ob physischer oder virtueller Server: Immer ist ein Restore einzelner Dateien möglich, ohne dass

7 C:\ D:\ E:\ Sicherungsziel (Lokaler Datenträger / Externer Datenträger / Netzwerkfreigabe) Jedes Volume wird in Blöcke unterteilt und gesichert. Jeder Block wird daraufhin überwacht, und nur Blöcke, die sich verändern, werden inkrementell gesichert. Element 3 (15 Minuten) (15 Minuten) (15 Minuten) Element 2 Übergeordnete Sicherung (vollständig) n Sicherung von untergeordnetem Element (inkrementell) Von untergeordnetem Element 1 Element Element 3 5 Element 2 (inkrementell) Element 3 (inkrementell) Element 1 Durch die Wiederherstellung werden alle Sicherungsblöcke unter Verwendung der neuesten Version wiederhergestellt. 6 Von übergeordnetem Element 7 Sicherung übergeordneter Elemente (vollständig) n Zusammengeführt in übergeordnetes Sicherung von untergeordnetem Element Element (inkrementell) Wenn das Limit auf 3 zu speichernde inkrementelle Sicherungen festgelegt ist Element 2 (inkrementell) Element 3 (inkrementell) Neue Sicherung übergeordneter Elemente (Überg. Element + unterg. Element 1) n Nächstes zusammenzuführendes untergeordnetes Element Element 2 Sicherung von untergeordnetem (inkrementell) Element 3 (inkrementell) Element 4 (inkrementell) Vergleich zur Überprüfung Jeder Block mit der Quelle zunächst die gesamte virtuelle Maschine wiederhergestellt werden müsste. Mit dem in das Dashboard der Software integrierten Storage Resource Management (SRM) kann sich der Administrator jederzeit einen Überblick darüber verschaffen, wie der aktuelle Stand der laufenden und geplanten Backup-Läufe ist. Er sieht aber auch, ob Fehlermeldungen der Hardware vorliegen, zu welchem Zeitpunkt das letzte Backup durchgeführt wurde und mit welchem Ergebnis es beendet wurde. CA ARCserve Backup bringt eine kosten frei integrierte Deduplizierungsfunktion mit, über die sich das Volumen der Backup-Sätze deutlich reduzieren lässt. Die Software beherrscht zudem eine Verschlüsselung, über die sich die Daten auf den erzeugten Tapes vor fremden Zugriffen schützen lassen. Ein integriertes Schüsselmanagement sorgt dafür, dass sich der Administrator um die Kennwörter für die einzelnen Bänder nicht zu kümmern braucht. Er muss lediglich ein Master-Passwort eingeben, um Zugriff auf die einzelnen Tapes zu bekommen. Snapshots von Remote-Standorten Eine noch verhältnismäßig neue Komponente in CA ARCserve ist ARCserve D2D, was für Disk to Disk steht. Die Software sichert also ausschließlich auf Festplatten. Nach einem einmaligen Vollbackup legt sie in der Folge blockbasierte inkrementelle Sicherungen als Snapshots an. Dank der von CA patentierten I 2 -Techno logie kann das alle 15 Minuten erfolgen, um auf diese Weise Datenverluste so gering wie möglich zu halten. Der Administrator kann die einzelnen Sicherungen gezielt anwählen, um so einen bestimmten System zustand wiederherzustellen. Beim Ausfall eines kompletten Servers lässt sich CA ARCserve D2D für ein Bare-Metal-Recovery einsetzen, das Programm kann also den kompletten Festplatten inhalt auf einem anderen Rechner im Originalzustand rekonstruieren. Die Hardware muss dabei nicht einmal identisch zu der des ausgefallenen Servers sein. Auf der anderen Seite ist es aber auch möglich, lediglich einzelne Volumes oder auch Dateien zurückzukopieren. Und: CA ARCserve D2D bietet eine direkte Unterstützung für Microsoft Exchange und SQL Server. Das bedeutet, dass der Administrator in der Lage ist, gezielt einzelne Elemente wie etwa s aus Exchange wiederherzustellen, ohne dass die gesamte Datenbank der Anwendung rekonstruiert werden müsste. CA ARCserve D2D Quelle eignet sich vor allem für Außenstellen, die über keine eigene IT-Abteilung verfügen und ausschließlich mit Windows-basierten Computern arbeiten. Da dort oftmals nur wenige Daten produziert werden, können sie mit einer inkrementellen Sicherung auch sehr schnell über ein schmalbandiges WAN ins zentrale Rechenzentrum übertragen werden. Diese Datenübertragung lässt sich mit ARCserve D2D sogar verschlüsseln, sodass Außenstehende die Daten nicht einsehen können. Sollte einmal ein Restore notwendig sein, lassen sich die Daten auf dem gleichen Weg wieder zurück in die Außenstelle transferieren. Zur Fernsteuerung der Sicherungen an den Remote-Standorten bietet CA Technologies ARCserve Central Protection Manager an. Mit dieser Erweiterung kann der Anwender alle seine ARCserve D2D-Installationen von einer einheitlichen Konsole aus verwalten. D2D selbst lässt sich lediglich an dem Rechner steuern, auf dem es eingerichtet ist. Erst mit dem Central Protection Manager eröffnet sich dem Administrator die Möglichkeit, ARCserve D2D parallel auf mehreren Servern zu installieren, Backup-Policies einzurichten und zuzuweisen, die Sicherungsläufe zu überwachen, einen Restore auszulösen und Programm-Updates einzuspielen. Im Zusammenspiel mit CA ARCserve Backup wiederum lässt sich mit ARCserve D2D eine Disk to Disk to Tape-Strategie umsetzen: Der Administrator kann länger zurückliegende C:\ Zuletzt gesicherte Blöcke Die I 2 -Technologie erstellt unbegrenzte, inkrementelle Backups auf Basis von Windows VSS. Einzelne Widerherstellungspunkte werden automatisch zusammengefasst, wodurch vollständige Backups nicht mehr notwendig sind. Die Vorteile inkrementeller Sicherungen bleiben erhalten. Sicherungen von CA ARCserve D2D, die nur noch selten oder überhaupt nicht mehr angefordert werden, in den üblichen Sicherungsprozess aufnehmen und auf Tape auslagern. Wenn in einer Außenstelle mehrere Server gesichert werden müssen, ist es allerdings oft sinnvoller, anstatt ARCserve D2D das umfassendere ARCserve Replication einzusetzen. Es basiert auf dem gleichen Funktionsprinzip wie D2D, legt also in regelmäßigen Abständen Snapshots des Systems an und repliziert sie auf einen Remote-Server. Neben Windows- unterstützt es jedoch auch Linux- und Unix-Betriebssysteme und natürlich ebenfalls VMware, Hyper-V und Citrix Xen für die Virtualisierung. Der Administrator kann auswählen zwischen einer kontinuierlichen, einer geplanten und Ad-hoc- Replikation, etwa um vor der Installation eines Updates noch einmal den alten Systemzustand einzufangen. Fazit Block-Sicherungs-Image aktualisieren (falls erforderlich) Die Komponenten von CA ARCserve sind so aufeinander abgestimmt, dass IT-Abteilungen mit ihnen nahezu jede Herausforderung in Sachen Datensicherung meistern können. Sie qualifizieren sich damit auch für äußerst heterogene IT-Strukturen in mittelständischen und Großunternehmen und lassen sich dort problemlos an die unterschiedlichen Level der Sicherheitsanforderungen anpassen. Weitere Informationen: TIM AG Tel xx 6 7 yy

8 EMC Isilon Storage-Systeme gegen die Informationsflut Die Systeme von EMC Isilon sind speziell für die Analyse und die Verarbeitung von sehr großen Daten mengen konzipiert. Gleichzeitig lassen sie sich sehr einfach skalieren. Big Data ist derzeit das am intensivsten diskutierte Thema der IT-Branche. Man versteht darunter Datenmengen, die so groß sind, dass sie mit Standard-Datenbanken nicht mehr oder nur unzureichend verarbeitet werden können. Die Schwierigkeiten treten auf allen Ebenen auf, beim Erfassen der Daten ebenso wie bei ihrer Speicherung, bei der Suche, bei der gemeinsamen Arbeit an den Daten, bei der Analyse und der Visualisierung. Und ein Ende ist nicht in Sicht, das Datenvolumen bei Unternehmen und staatlichen Organisationen wächst weiterhin mit exponentieller Geschwindigkeit. Ein besonders heißes Thema ist Big Data im Storage-Umfeld. Viele Systeme stoßen bei Datenmengen von mehreren Petabyte und mehr an ihre Kapazitätsgrenzen. Beim Erweitern mischen die Unternehmen dann oftmals Maschinen mehrerer Hersteller, mit unterschiedlichen Betriebssystemen und verschiedenen technischen Ansätzen miteinander. Das Ergebnis ist eine heterogene Storage-Infrastruktur, die zunehmend schwieriger zu überschauen und zu verwalten ist. Das wiederum führt dazu, dass die gespeicherten Daten aus dem Blickfeld der Benutzer geraten. Die enthaltenen Informationen, die für den Geschäftserfolg des Unternehmens essenziell sein können, werden nicht mehr genutzt. Wichtigster Faktor ist das Betriebssystem Isilon begegnet diesen Herausforderungen mit Systemen, die dateibasierte Anwendungen in einem einzigen, riesigen Speicherpool konsolidieren und zusätzlich das blockorientierte iscsi-protokoll unterstützen. Die Firma hat eine Scale-out-Speicherarchitektur entwickelt, mit der sich 144 Knoten verbinden lassen. Im Mai 2011 gab die Firma auf der EMC World bekannt, dass sie die Grenze für die Kapazität eines Volumes mit einem einzigen Dateisystem auf mehr als 15 Petabyte anheben konnte. Verantwortlich dafür ist in erster Linie das von Isilon entwickelte Betriebssystem OneFS, das mittlerweile in der Version 6.5 vorliegt. Es verbindet mehrere Nodes in einem Cluster, die entweder über InfiniBand oder über Standard- Gigabit-Verbindungen miteinander kommunizieren. Der Zugriff auf die unter OneFS gespeicherten Daten ist von Clients mit Windows, Unix/Linux oder auch von Computern mit Apples Mac OS X aus möglich. Die Architektur der Isilon-Systeme ist auf eine hohe, vierfache Ausfallsicherung ausgelegt: Bis zu vier Festplatten oder vier komplette Knoten können gleichzeitig ausfallen, ohne dass dadurch Daten verloren gehen. Über die in OneFS integrierten Routinen lässt sich in einem solchen Fall ein Terabyte Daten in kürzester Zeit wiederherstellen. Isilon ist auf Scale-out-NAS-Systeme spezialisiert. Scale-out heißt, dass sich die Performance und Kapazität der Cluster einfach durch Hinzufügen weiterer Nodes erhöhen lassen. Das kann im laufenden Betrieb geschehen, die neu hinzugekommenen Systeme sind normalerweise innerhalb von etwa einer Minute konfiguriert und arbeitsbereit. Die Isilon-Systeme unterstützen die NAS-Protokolle NFS und CIFS sowie iscsi. Der Aufbau und die Konfiguration sind einfach, kostspielige professionelle Schulungen für die Administration sind in den meisten Fällen nicht erforderlich. Der große Vorteil beim Einsatz von Isilon ist, dass das Storage-Management erheblich vereinfacht wird. Anstatt heterogener, parallel arbeitender Systeme gibt es nur noch eine gemeinsame Plattform. Üblicherweise genügt Isilon Hardware-Plattformen bauen auf der innovativen Scale-out-Architektur auf, die für einfache Handhabung, erstklassige Performance und Zuverlässigkeit ausgelegt ist. Die Plattform umfasst drei flexible Produktreihen, die auf bestimmte Geschäftsanforderungen zugeschnitten sind. Die S-Serie als primärer Speicher mit extrem hoher Performance, die X-Serie als flexibelstes Angebot mit perfekter Ausgewogenheit von Speicher & Performance und die NL-Serie zur Bereitstellung kosteneffektiver, hoch skalierbarer Disk-2-Disk und Archivspeicher.

9 auch bei großen Clustern mit mehreren Petabyte Kapazität ein einziger Mitarbeiter, um die Systeme zu verwalten, vor allem, da sie sehr einfach erweiterbar sind. Die Total Costs of Ownership (TCO) gehen deutlich zurück. Die Isilon X-Serie skaliert von einem einzigen Dateisystem mit wenigen Terabyte auf mehr als 15 Petabyte und einen Durchsatz von mehr als 100 GB/s. Bei einer Studie von Forrester Consulting stellte sich zudem heraus, dass der durchschnittliche Auslastungsgrad bei Isilon-Systemen mit 82 Prozent höher ist als bei den Systemen traditioneller Hersteller, die auf 60 Prozent kamen. Das reduziert die Anschaffungskosten für Storage und Ports und sorgt zudem dafür, dass weniger Energie verbraucht wird. Im Kontext der Isilon-Technologie darf schließlich nicht der Hinweis fehlen, dass die Systeme Hadoop unterstützen, ein Software- Framework, das die Analyse extrem großer Datenmengen auf Computer-Clustern erlaubt. Damit kommt dann auch Greenplum HD ins Spiel, eine Datenbank, die speziell für den Umgang mit Big Data entwickelt wurde und es ermöglicht, in großen Volumen unstrukturierter Daten Trends und Entwicklungen zu erkennen. Genau wie Isilon gehört Greenplum seit 2010 zu EMC. Abgrenzung zur EMC VNX Erst im vergangenen Jahr hat EMC die VNX-Serie vorgestellt, den Nachfolger für die Celerra- und CLARiiON-Reihen. Bei voller Ausbaustufe vereinen diese Systeme ebenfalls eine hohe Performance mit großer Kapazität und sind dennoch dank der einheitlichen Management-Oberfläche Unisphere einfach zu administrieren. Was unterscheidet sie also von den Isilon-Systemen, für welche Anwendungen und Kunden eignen sich Isilon und VNX? Den wichtigsten Unterschied macht natür lich das Dateisystem. Mit dem OneFS von Isilon lassen sich unter einem einzigen Dateisystem und Volume über 15 Petabyte Speicherkapazität verwalten, bei einer VNX hingegen maximal 16 Terabyte. Sie ist zudem in der Unified-Storage-Welt zuhause, unterstützt also sowohl File- wie auch blockorientierte Protokolle, während es sich bei den Isilon-Systemen um typische, datei orientierte NAS-Systeme handelt, welche die Protokolle NFS, CIFS und HTTP unterstützen. Und: Isilon setzt auf eine Scale-out- Architektur, eine horizontale Skalierung, bei der die Nodes zu Clustern verbunden werden. Durch Hinzufügen weiterer Maschinen lassen sich dann Performance und Kapazität des Gesamtsystems sehr einfach steigern. Die VNX-Serie hingegen ist ein Scale-up-System, bei dem Performanceund Kapazitätssteigerungen durch den Ausbau der vorhandenen Hardware erreicht werden. Für welche Kundenanforderungen sind die Systeme geeignet? Isilon ist immer dann die richtige Wahl, wenn es um die Arbeit mit sehr großen Datenmengen geht. Die Systeme von Isilon zeigen ihre Stärken vor allem dann, wenn eine hohe Bandbreite gefragt ist, um große Datenvolumen schnell verarbeiten zu können, wenn es also, ganz nüchtern gesprochen, um möglichst viele Gigabytes pro Sekunde geht. Das prädestiniert sie beispielsweise für den Einsatz beim Video-Streaming und bei der Video produktion oder auch beim digitalen Rundfunk und Fern sehen. Die VNX-Systeme hingegen sind für die übliche Datei-, Blockund Objekt speicherung konzipiert. Sie können immer dann glänzen, wenn es darum geht, geschäftskritische Daten zu verarbeiten oder zu sichern, wenn also ein möglichst hoher Datendurchsatz (in Input / Output Operations per Second, IOPS) benötigt wird. Und: Sie eignen sich ausgezeichnet für die Bereitstellung virtualisierter Applikationen. Ein Cluster aus Isilon- Maschinen ist dagegen dort am richtigen Platz, wo es um die Verarbeitung großer Mengen an unstrukturierten Daten geht. Das können neben Texten auch Präsentationen sein, Videos, Audiodaten, Fotos oder auch Konstruktionszeichnungen. Auch die riesigen Berge von automatisch generierten Daten, wie sie beispielsweise bei Telekommunikationsfirmen, meteorologischen Diensten oder Luftfahrt-Gesellschaften anfallen, sind bei Isilon gut aufgehoben. Die Isilon-Systeme können solche Daten nicht nur in großen Mengen aufnehmen, sondern bilden auch die geeignete Plattform für Anwendungen zur Analyse und Weiterverarbeitung. Im Einzelnen richten sich die VNX- Maschinen an Kunden in mittelständischen und Großunternehmen sowie Einrichtungen der öffentlichen Hand. Die Systeme sind ausgelegt für klassische IT-Workflows wie Datenbanken, beispielsweise von Oracle oder den Microsoft SQL Server, ERP- und CRM-Systeme wie SAP, jede Art von virtualisierten Applikationen, Kommunikations-Anwendungen wie Microsoft Exchange, und können auch als Basis für die Dateiablage der Mitarbeiter eines Unternehmens und fürs Filesharing dienen. Die typischen Anwendungsszenarien für Isilon-Systeme finden sich dagegen beispielsweise bei Großunternehmen aus der Medienund Unterhaltungsindustrie, die für ihren Produktionsprozess vom Editing über die Qualitätskontrolle im Playout-Center bis hin zur Archivierung leistungsfähige Storage-Lösungen suchen, deren Performance und Kapazität über das normale Maß hinausgehen. Auch Unternehmen aus der Internet-Branche, die umfangreiche Buchungssysteme oder Webshops betreiben, Plattformen für Multimedia-Daten bereitstellen oder als Service Provider tätig sind, gehören zur Zielgruppe von Isilon. Des Weiteren umfasst diese Gruppe Organisationen und Großunternehmen aus den Bereichen Maschinenbau, Biowissenschaften sowie Öl- und Gasförderung Die Isilon-Architektur bietet durch einen bis N+4 abgestuft einstellbaren Parity- Schutz eine hohe Ausfallsicherheit. und -verarbeitung. Und auch in der Forschung bei Hochschulen, staatlichen wissenschaftlichen Einrichtungen und privaten Unternehmen sind Isilon-Maschinen die passende Lösung für die IT-Abteilungen. Fazit Isilon ist Big Data. Die Systeme von EMC Isilon stehen wie keine zweite Storage- Produktreihe für die Verarbeitung von großen, unstrukturierten Datenmengen. Dank der Möglichkeit zum Einrichten extrem großer Volumes von mehr als 15 Petabyte, die eine hohe Auslastung fördern, und der einfachen Administration sind die Maschinen auch in Unternehmen und Organisationen einsetzbar, die nicht über IT-Abteilungen mit Hunderten Beschäftigten verfügen. Weitere Informationen: TIM AG Tel

10 Fundierte Entscheidungen brauchen schnelle Datenanalyse. Die neuen Dell PowerEdge Server: Leistungsstärker, innovativer und schneller war noch kein Dell Server! Ab sofort können Ihre Kunden schneller besser informierte Entscheidungen treffen denn Erfolg braucht Innovation. Geben Sie Ihren Kunden jetzt die Performance und die Tools an die Hand, die sie brauchen, um ihr Unternehmen voranzubringen: mit den neuesten Dell PowerEdge Servern und Intel Xeon Prozessoren, die bis zu 80 % leistungsfähiger sind als Prozessoren der Vorgängergenerationen.* Ob schnellerer Datenzugriff, zuverlässigere geschäftskritische Anwendungen, einfachere Skalierbarkeit, weniger Ausfallzeiten, geringere Kosten oder mehr virtuelle Maschinen die neuen Dell Server bieten all das und noch mehr für hocheffiziente Virtualisierung. Die neuen Dell PowerEdge Server der zwölften Generation * Der Leistungsvergleich basiert auf dem geometrischen Mittel aus den SPECintratebase2006, SPECfp*_rate_base2006, STREAM*_MP Triad und LINPACK* Benchmark-Tests. Der geometrische Ausgangsmittelwert von 166,75 wurde auf Grundlage der besten auf veröffentlichten SPECrate* Ergebnisse sowie der intern von Intel geschätzten Ergebnisse in den STREAM*_MP Triad und LINPACK Benchmark-Tests für eine Plattform mit Intel Xeon X5690 Prozessor der Vorgängergeneration mit zwei Sockeln berechnet, Stand 5. Dezember Der neue geometrische Mittelwert von 306,74 basiert auf internen Intel Schätzungen für die Intel Rose City Plattform mit zwei Intel Xeon E Prozessoren, Turbo Boost, aktiviertem EIST, Hyper-Threading-Technik, 128 GB RAM, Red Hat* Enterprise Linux Server 6.1 Beta für x86_6 und Intel Compiler 12.1, bei deaktiviertem THP für SPECfp_rate_base_2006 und aktiviertem THP für SPECint*_rate_base2006. Intel, das Intel Logo, Xeon und Xeon Inside sind Marken oder eingetragene Marken der Intel Corporation in den USA und/oder anderen Ländern.

11 Symantec Mit schnelleren Sicherungen gegen die Datenflut Unter dem Motto Better Backup for All wurde Symantec NetBackup 7.5 um Funktionen für verkürzte und vereinfachte Sicherungen erweitert. Seit Jahren schon beklagen Administratoren die tendenziell sinkenden IT-Budgets in Unternehmen und staatlichen Organisationen. Eine besondere Herausforderung ergibt sich für sie dabei, da die Datenmengen, mit denen sie es in ihren Rechenzentren zu tun haben, in den vergangenen Jahren exponentiell angestiegen sind. Vor allem der Pool an unstrukturierten Daten nimmt ein immer größeres Volumen an. Hinzu kommt die wachsende Komplexität der IT-Landschaft: In den Rechenzentren werden immer mehr Server und Applikationen virtualisiert, gleichzeitig wächst durch den Trend zum Bring your own Device und den zunehmenden Einsatz von Mobilgeräten die Vielfalt der eingesetzten Hardware. Die IT-Abteilungen stehen dabei vor dem Problem, dass die Zeitfenster, die sie für ihre Backups kalkuliert haben, nicht mehr ausreichen. Folge: Die Service Level Agreements (SLAs) können nicht mehr eingehalten werden. Gleichzeitig stehen die IT-Verantwortlichen unter dem Druck, die Disaster-Recovery-Prozesse zu vereinfachen und zu beschleunigen, um schnellere Restores realisieren zu können. Um diese Aufgaben zu lösen, bedarf es neuer Ansätze beim Backup. Symantec stellt mit NetBackup 7.5 eine Lösung vor, die Administratoren erweiterte Möglichkeiten bei der Bewältigung der Datenflut eröffnet. Accelerator und Replication Director Die interessanteste Funktion zur Reduktion des Zeitaufwands für die Backups ist der neue NetBackup Accelerator. Nach einem ersten Full Backup führt er nur noch inkrementelle Sicherungen durch, berücksichtigt also lediglich neu hinzugekommene oder veränderte Datenblöcke. Das hat üblicherweise den Nachteil, dass die inkrementellen Backups bei einem Restore in einem zeitraubenden Vorgang erst wieder zu einer kompletten Sicherung zusammengefügt werden müssen. NetBackup Accelerator umgeht das, indem er nach jedem Sicherungslauf im Hintergrund ein sogenanntes Optimized Synthetic Full Backup erzeugt. Dabei generiert die Software keine neuen Images, sondern legt ledig lich die Datenbankeinträge für ein Vollbackup an. Trotzdem lässt sich auf diese Weise jederzeit ein schneller Restore-Vorgang durchführen. Da das NetBackup Accelerator reduziert die I/O-Kosten ohne die CPU-Performance zu beeinträchtigen. Programm die Änderungen anhand des NTFS Change Journals von Windows oder, unter Linux und Unix, anhand einer Logdatei erkennt, entfällt zudem der aufwendige Scan des Dateisystems. Um die Dauer des Backups noch weiter zu verkürzen, setzt Accelerator Deduplizierung ein. Das bedeutet in diesem Fall, dass lediglich die Daten von den Clients gesichert werden, die auf dem Host noch nicht vorhanden sind. Durch die Deduplizierung und das zuvor beschriebene Verfahren der inkrementellen Sicherungen kann NetBackup Accelerator den Backup-Vorgang um bis zum Hundertfachen beschleunigen. Die zweite wichtige Neuerung von Net- Backup 7.5 ist der Replication Director, der sich speziell an NetApp-Kunden richtet. Sie können damit die Snapshots aus NetBackup heraus auslösen, katalogisieren und wiederherstellen. Des Weiteren ist es möglich, die Snapshots in ein zweites Rechenzentrum zu replizieren, entweder über NetApp SnapVault oder über SnapMirror. Außerdem lassen sie sich auf Bandlaufwerke oder externe Festplatten schreiben. Ebenfalls neu ist NetBackup Search, eine Funktion, die in bestimmten Fällen die Verwaltung gesicherter Daten deutlich vereinfacht. Wenn ein Administrator die mit einem bestimmten Mitarbeiter verbundenen Daten wegen einer gesetzlichen Gewährleistungsfrist über den üblichen Sicherungszeitraum hinaus aufbewahren muss, dann braucht er nicht mehr die komplette Sicherung zu archivieren, sondern kann die zu dem Projekt gehörenden Daten entsprechend kennzeichnen. Während in der Folge alle anderen Daten freigegeben und von NetBackup gelöscht werden, bleiben die Projektdaten erhalten. Auf diese Weise spart der Anwender Bänder und Storage. Neu ist schließlich auch das OpsCenter Operational Restore. Damit lässt sich über eine webbasierte Oberfläche die Suche nach Dateien auf bestimmte Clients einschränken. So läuft die Suche natürlich erheblich schneller, als wenn sämtliche Clients einer Organisation durchforstet werden müssen. Ausblick auf Version 7.6 Für das zweite Halbjahr 2012 hat Symantec NetBackup 7.6 angekündigt. Diese Version wird sich voraussichtlich in erster Linie um Komplettierungen der mit 7.5 vorgestellten Neuerungen kümmern. Das lässt sich gut am Beispiel des NetBackup Replication Director darstellen: Während diese Funktion in Version 7.5 lediglich für NetApp-Anwender und NAS-Protokolle verfügbar ist, wird die Unterstützung mit Version 7.6 auf die SAN-Protokolle Fibre Channel und iscsi erweitert. Hinzukommen sollen außerdem eine Unterstützung für VMware und eine direkte Zusammenarbeit mit Applikationen wie Oracle, Exchange oder Microsoft SQL Server, um so applikationskonsistent Daten über einen Snapshot zu sichern. Ähnliche Veränderungen wird es beim NetBackup Accelerator geben. Derzeit ist er für Dateisysteme verfügbar, in Zukunft soll auch VMware unterstützt werden. Wie der Funktionsumfang von Version 7.6 allerdings genau aussehen wird, ist momentan noch nicht bekannt. Weitere Informationen: TIM AG Tel

12 EMC EMCs neue Cache-Technologie bringt Performance-Boost Mit VFCache stellt der Storage-Hersteller ein Produkt vor, das in Zusammenarbeit mit EMC F.A.S.T. die Reaktions zeiten von Webanwendungen und Datenbanken drastisch verkürzen kann. EMC bietet mit den Technologien F.A.S.T und VFCache eine End-to-End-Tiering-Lösung zur Optimierung von Kapazität und Leistung vom Server bis zum Speicher. Auf die Erledigung von Datenbank- Abfragen warten zu müssen, ist im Unternehmens umfeld keine Option. Bestellungen müssen sofort verbucht werden, Umsatzzahlen immer aktuell bereitstehen. Professionelle Datenbank-Anwendungen beispielsweise von Oracle oder SAP oder auch Web- und Finanzanwendungen erfordern daher Lösungen, die eine höchstmögliche Performance bieten. Gleichzeitig müssen natürlich immer auch die Kosten im Auge behalten werden. EMC hat daher bereits vor einigen Jahren die F.A.S.T.-Technologie entwickelt, das Fully Automated Storage Tiering. Tiering lässt sich übersetzen mit Abstufen oder Staffelung und bedeutet, dass die vorhandenen Speichermedien gemäß ihrer Performance und verschiedenen Preisklassen unterschiedlichen Stufen zugeordnet werden. Auf Tier 1 etwa werden schnelle SAS- oder Fibre-Channel-Festplatten eingesetzt, die jedoch einen verhältnismäßig hohen Preis pro Gigabyte aufweisen. Auf Tier 2 sind es die Highend-SATA-Platten mit Umdrehungen pro Minute, die ebenfalls noch sehr geringe Zugriffszeiten versprechen. Tier 3 versammelt dann SATA-Platten mit 7200 oder auch 5400 Umdrehungen, die sich durch einen besonders günstigen Preis auszeichnen. Vor einigen Jahren wurde zusätzlich Tier 0 definiert, das mit den derzeit schnellsten, aber auch teuersten Festplatten arbeitet, den SSDs, beziehungsweise den von EMC entwickelten EFDs (Enterprise Flash Drives). EFDs verwenden SSD-Technik, wurden jedoch von EMC noch einmal in puncto Datensicherheit, Langlebigkeit und Performance optimiert. EMC F.A.S.T. sorgt nun dafür, dass die zu speichernden Daten automatisch auf die verschiedenen Tiers verteilt werden. Besonders häufig angeforderte Daten, die schnell zur Verfügung stehen müssen, landen auf Tier 0 oder Tier 1. Etwas weniger oft angefragte Daten verschiebt F.A.S.T. auf Tier 2, die am wenigsten benötigten Daten auf Tier 3. Auf diese Weise lassen sich die Kosten pro I/O-Vorgang optimieren und insgesamt drastisch senken. SAN-Verbindung als Bremse Doch manche Anwendungen erfordern eine I/O-Leistung, die auch mit den schnellsten derzeit verfügbaren SSDs nicht befriedigt werden kann. Denn gebremst wird der Datenfluss nicht durch das Speichermedium, sondern durch den Übertragungsweg zwischen dem Host und dem Speicher-Subsystem. Üblicherweise läuft der Datenverkehr über ein SAN, das entweder auf dem Fibre-Channel- oder einem IP-Protokoll basiert. Und ganz gleich, wie breitbandig diese Verbindungen ausgebaut sind, es bleibt immer eine Latenzzeit. Die Laufzeit über das Kabel lässt sich nicht eliminieren. Es gibt zwei Möglichkeiten, das Problem anzugehen: Entweder man bringt den Speicher näher an die CPU des Host-Rechners oder die CPU näher an den Speicher. Mit dem im vergangenen Jahr auf der EMC World vorgestellten VFCache hat sich EMC für die erste Möglichkeit entschieden. EMC VFCache für das Host-System VFCache besteht aus einer PCIe-Karte und der zugehörigen Treiber-Software. Das Produkt wird auf dem Host-System installiert und ist kompatibel zu Microsoft Windows Server 2008 und Linux, außerdem arbeitet es mit virtuellen Umgebungen unter VMware vsphere 4.1 und 5.0 zusammen. Die Karte ist mit 300 Gigabyte Flash- Speicher ausgerüstet, der als Cache für Leseoperationen auf den Laufwerken beziehungs weise Mit VFCache wird die Anwendungs-Performance einer traditionellen Storage-Architektur drastisch verbessert. Dabei werden Lese-Anforderungen durch den VFCache bearbeitet, Schreib-Operationen gehen direkt zum Speichersystem, um einen Datenverlust zu vermeiden.

13 LUNs des Speicher-Subsystems konfi guriert wird. VFCache sammelt in seinen schnellen Flash-Modulen die am häufigsten angeforderten Daten und stellt sie auf dem Server bei entsprechenden I/O-Anfragen zur Verfügung. Die Daten werden also vom Storage-System über das SAN in den VFCache des Hosts übertragen und dort vorgehalten. Da in der Folge die am häufigsten benötigten Daten bereits auf dem Server vor liegen und dort abgerufen werden können, mithin die Übertragung übers Netzwerk entfällt, lassen sich erheblich mehr I/O-Vorgänge durchführen. Der Cache selbst funktioniert so: Sobald eine I/O- Leseanforderung kommt, wird sie von der VFCache- Software an die PCIe-Karte weiter gereicht. Falls die Daten bereits im Cache vorliegen, wird die Anforderung erfüllt, falls nicht, an die Festplatte weitergeleitet. Dabei merkt sich die Karte, welche Datenblöcke besonders oft angefordert werden. Falls nun ein Block häufiger als andere von der Festplatte gelesen werden muss, übernimmt sie ihn in ihren Flash-Speicher und bedient die nächste Anfrage aus dem Cache. Diese Arbeitsweise entspricht weitgehend dem, wie auch der integrierte Cache in einer CPU oder der Cache-Speicher im RAM organisiert ist. Die Reaktionszeit wird dadurch von Milli- auf Mikrosekunden reduziert. VFCache sorgt aber auch noch in anderer Hinsicht für eine Performance- Stei gerung: Da die Karte mit einer hohen Intelligenz ausgestattet ist, nimmt sie der CPU des Servers einiges an Arbeit ab. Vorgänge wie beispielsweise das Durchsuchen des Cache, die normalerweise der Hauptprozessor erledigen muss, werden auf die PCIe-Karte übertragen. Die CPU wird also entlastet und hat mehr Kapazitäten für andere Aufgaben. VFCache lässt sich in dieser Hinsicht vergleichen mit dem Effekt einer TCP/IP Offload Engine auf einem Netzwerk- Adapter. Beschleunigung von Lesezugriffen Die Karte beschleunigt zusammen mit ihrer Software alle blockbasierten Protokolle. Ob es sich bei den Festplatten um interne oder externe Modelle handelt, spielt keine Rolle. Es muss jedoch immer klar sein, dass sich VFCache ausschließlich um Lesevorgänge kümmert. Schreib operationen hingegen werden durchgereicht ans Speicher-Subsystem. Das geschieht aus Gründen der Datensicherheit: Würde VFCache auch Schreibzugriffe cachen, könnte es bei einem Server-Ausfall zu Datenverlusten kommen, falls die Daten in den Flash-Modulen nicht mehr auf die Platte geschrieben werden könnten. Bei Datenbank-Anwendungen könnte das dazu führen, dass die gesamte Daten bank korrumpiert und damit unbrauchbar würde. VFCache ist vor allem beim Einsatz von solchen Anwendungen effektiv, die sehr viele I/O-Vorgänge pro Sekunde oder eine sehr niedrige Reaktionszeit erfordern. Dazu zählen beispiels weise umfangreiche Web-Anwendungen wie Shops oder Buchungssysteme, Datenbanken für die Online-Transaktions - ver arbeitung, das Customer Relationship Manage ment (CRM) und das Enterprise Resource Planning (ERP) sowie -Anwendungen. Ihnen allen ist gemein, dass auf verhältnis - mäßig wenige Daten sehr häufig und oftmals gleichzeitig zugegriffen wird. Die neue Cache-Technologie ermöglicht I/O-Vorgänge in Größenordnungen, die im Vergleich mit Systemen ohne VFCache astronomisch erscheinen. Während eine herkömmliche, mechanische Festplatte pro Sekunde auf etwa 150 bis 180 I/O-Vorgänge pro Sekunde kommt (IOPS, I/O Operations per Second), sind es bei EFDs bereits 2000 bis Für VFCache gibt EMC Leseraten von bis zu IOPS an, in der Praxis sind über IOPS realistisch. Aufgrund der hohen Performance-Unterschiede hat EMC für den VFCache eine neue Tier-Stufe eingeführt Tier -1. Im klassischen TPC-C-Benchmark mit einer Oracle-Datenbank mit einem Volumen von 1,2 Terabyte und einer Schreib-/Leserate von 70 zu 30 ließ sich nach Installation von VFCache die Response-Zeit um 60 Prozent verbessern. Die Transactions per Second waren dabei um den Faktor drei erhöht. Insgesamt kam es zu einer Performance-Steigerung von 210 Prozent. VFCache bringt die Daten näher zur Anwendung, passt sich dabei automatisch verändernden Workloads an und ermöglicht damit einen jederzeit effizienten I/O-Pfad. Transaktionskosten senken Diese Daten bedeuten gleichzeitig auch, dass sich mit VFCache in der Unternehmens-IT sogar Kosten senken lassen: Denn berücksichtigt man die Kosten pro Transaktion, lassen sich durch den Einsatz von VFCache bei transaktionsintensiven Anwendungen die Kosten deutlich nach unten drücken. Als hostbasiertes System arbeitet VFCache nicht nur mit Storage-Systemen von EMC zusammen. Die Karte ist ganz allgemein für die Performance-Verbesserung von Anwendungen konzipiert, ganz gleich, ob sie auf einem physischen Server laufen oder virtualisiert sind. Speichersysteme von EMC, und darunter vor allem die Unified-Storage-Systeme aus der VNX-Reihe, profitieren jedoch ganz besonders vom Einsatz des Cache, da deren Mechanismen sich reibungslos in die des Storage-Systems einpassen. Weitere Informationen: TIM AG Tel

14 UNITE PHYSICAL AND VIRTUAL Symantec Backup Exec 2012 und NetBackup 7.5 enthalten erweiterte neue Funktionen für virtuelle und physische Umgebungen. Beseitigen Sie die Komplexität bei Backups mit TIM und Symantec. Hier informieren: Sie müssen also nur eine Lösung erwerben, um Ihre gesamte Umgebung zu sichern: Eine einzige Lösung für VMware -, Hyper-V - und physische Server Wiederherstellung einzelner Dateien, Deduplizierung und Richtlinienverwaltung Neue V-Ray-Technologie für optimalen Einblick in die gesamte Umgebung Automatische Sicherung neuer oder verschobener VMs Confidence in a connected world.

15 NetApp Cluster-Mode vereinfacht und flexibilisiert Administration Mit dem Cluster-Mode von Data ONTAP 8.1 verstärkt NetApp sein Engagement beim Scale-out-Storage und bleibt dennoch seiner Unified-Storage-Philosophie treu. Was tun, wenn die Performance der vorhandenen Storage-Systeme nicht mehr ausreicht? Wenn die Anforderungen der eingesetzten Applikationen so gestiegen sind, dass zusätzliche Rechenleistung gefragt ist? Oder wenn die Speicherkapazität in absehbarer Zeit erschöpft sein wird? Eine mögliche Lösung ist ein Upgrade auf größere Systeme mit höherer Rechenleistung und Kapazität. Doch ein solches Scale-up, also eine vertikale Skalierung, erfordert fast immer eine Unterbrechung des laufenden Betriebs der Applikationen und anschließend eine Neukonfiguration. Solche Betriebsausfälle sind teuer, entsprechend ungern gesehen und bei manchen kritischen Applikationen sogar nahezu ausgeschlossen. Und auch bei einem Scale-out, also einer horizontalen Skalierung durch Hinzufügen zusätzlicher Maschinen, ist eine Betriebsunterbrechung oftmals nicht zu vermeiden und bringt zudem das Problem mit sich, dass die neu hinzugekommenen Systeme auch den administrativen Aufwand erhöhen. Mit seinem Betriebssystem Data ONTAP in der Version 8.1 präsentierte NetApp im vergangenen Herbst eine Lösung, die nicht nur ein Scale-out-Clustering im laufenden Betrieb erlaubt, sondern auch äußerst flexibel ist, was die Einbindung von Midrange- oder auch Highend-Storage-Systemen anbelangt oder auch den Einsatz unterschiedlicher Speichermedien. Auch ein klassisches Tiering lässt sich auf diese Weise realisieren. Zudem, und das unterscheidet NetApp vom Wettbewerb, lässt sich der Cluster- Mode von Data ONTAP 8.1 sowohl in der NASwie auch in der SAN-Welt einsetzen. NetApp fasst die Fähigkeiten von Data ONTAP 8.1 unter den Stichworten Always-on, bedarfsgerechte Flexibilität und betriebliche Effizienz zusammen. In den folgenden Abschnitten soll es darum gehen, was das im Einzelnen bedeutet und welche Vorteile sich dadurch für den Kunden ergeben. Clustering für NAS und SAN Der Cluster-Mode ist eine neue Funktion von Data ONTAP 8.1. Systeme mit diesem Betriebssystem lassen sich nicht nur für NAS- Workloads einsetzen, also beispielsweise für Anwendungen im Medienbereich, bei denen Mit der Scale-out-Architektur von Data ONTAP 8.1 entsteht aus Applikationssicht ein Global Namespace, der sich über alle physischen Maschinen erstreckt. umfangreiche Datenmengen erfasst werden müssen. Sie unterstützen auch typische SAN- Workloads wie etwa Oracle und andere Datenbank-Verwaltungen und beherrschen die Protokolle Fibre Channel (FC), iscsi und Fibre Channel over Ethernet (FCoE). NetApp hat also mit ONTAP 8.1 eine Plattform geschaffen, die sich für Workloads aller Art anbietet und damit die Tradition der Unified-Storage-Systeme der Firma weiterführt und ausbaut. Doch der Cluster-Mode ist beileibe nicht die einzige Neuerung von ONTAP 8.1. Zum Liefer umfang des Betriebssystems gehören nun auch Funktionen wie ein integriertes Antiviren- Programm, asynchrone Spiegelung, die Unterstützung von NFS in den Versionen 4 und 4.1 (inklusive pnfs), die Integration der VMware- Schnittstelle VAAI (vstorage API for Array Integration) in NFS, das Microsoft-NAS-Protokoll SMB in Version 2.1 sowie Verbesserungen bei der Verwaltung und der Support-Freundlichkeit. Und auch die NetApp-Funktionen zur Storage- Effizienz sind verfügbar. Dazu später noch mehr. Die entscheidende Verbesserung von Data ONTAP 8.1 gegenüber den Vorgänger- Versionen sind jedoch die Möglichkeiten, die das Betriebssystem bei der Skalierung einer Storage- Umgebung eröffnet. NetApp hat im Prinzip eine zusätzliche Virtualisierungsschicht eingezogen, die die physischen Storage-Controller von den Applikationen trennt. Die Anwendungen sehen lediglich einen oder mehrere virtuelle Controller, die von den physischen Maschinen völlig unabhängig sind. Der Administrator kann einen Global Namespace über alle Storage-Systeme hinweg einrichten, was die Verwaltung deutlich vereinfacht und den Aufwand reduziert. Always-on für SAN und NAS Im Cluster-Mode von ONTAP 8.1 ist es möglich, eine Storage-Umgebung im laufenden Betrieb und ohne dass es zu Einschränkungen bei der Funktionalität kommt, zu skalieren und an den aktuellen Bedarf des Betreibers anzupassen. Die Daten lassen sich einfach auf andere Controller verschieben und zwar, wie gesagt, ohne dass Betriebsunterbrechungen erforderlich wären. Für die Applikationen ändert sich dabei nichts: Sie greifen nach wie vor auf den gleichen virtuellen Controller zu. Das bringt nicht nur beim Skalieren erhebliche Vorteile, sondern auch bei der Wartung und beim Einsetzen von Upgrades. Wenn ein Controller beispielsweise durch ein Modell mit einer leistungsfähigeren CPU ausgetauscht werden soll oder wenn es zu einem Defekt gekommen ist, kann der Administrator die Daten von dem betroffenen Storage-Controller auf einen anderen migrieren, den Controller austauschen und die Daten anschließend wieder zurückholen. Auch das im laufenden Betrieb. Weitere Informationen: TIM AG Tel

16 NetApp Dank der Virtualisierung lassen sich die Systeme auch besser ausnutzen. Wenn eine Applikation beispielsweise so gewachsen ist, dass die Ressourcen, also Rechenleistung und Speicherkapazität, auf ihrem Storage-Controller knapp werden, ist es möglich, im Zuge eines Re-Balancing einzelne Workloads auf andere, weniger belastete Controller zu verschieben. Auf diese Weise werden die vorhandenen Systeme optimal genutzt und gleichmäßiger ausgelastet. Die Always-on-Funktionalität sorgt also für eine Hochverfügbarkeit der Storage-Controller. Um darüber hinaus die klassische Ausfallsicherheit zu bekommen, bei der sämtliche Daten immer aktuell auch auf einer zweiten Maschine vorgehalten werden, lässt sich zusätzlich noch eine Spiegelung einrichten. Mehr Flexibilität durch Skalierung Mit ONTAP 8.1 verfolgt NetApp einen Scale-out-Ansatz: Bei Performance-Engpässen werden einfach weitere Storage-Controller hinzugefügt. Auf der anderen Seite können bei der Auslagerung von Geschäftsbereichen, wenn also weniger Storage erforderlich ist, einzelne Maschinen aus dem Verbund herausgenommen werden. Ein Unternehmen kann also klein beginnen und beispielsweise mit zwei Storage- Controllern ein SAN- oder eine NAS-Lösung aufbauen. Wenn die Anforderungen dann im Laufe der Jahre steigen, kann die IT-Abteilung jederzeit flexibel reagieren und einfach weitere Systeme hinzufügen. Theoretisch ist die Kapazität und Performance eines solchen Clusters unbegrenzt. Denn jeder Storage-Controller, der hinzugefügt wird, erhöht die Leistung an IOPS (I/O Operations per Second) des Gesamtsystems, da alles einem großen, virtuellen Storage-Controller zugeschrieben wird. Das Gleiche gilt für die Kapazität: Mit einem Cluster aus mehreren Highend-Systemen der 6200er-Serie von NetApp, von denen jedes mehrere Petabyte Storage- Kapazität verwalten kann, bekommt man einen gigantischen virtuellen Storage-Controller. In der Praxis sind die Cluster von ONTAP 8.1 in der NAS-Welt momentan auf maximal 24 Nodes beschränkt. In einem SAN lassen sich derzeit bis zu vier Nodes zusammenschalten, wobei dieser Wert allerdings schon in naher Zukunft erhöht werden soll. Effizient im Betrieb Beim Clustering wird die Storage-Hardware gewissermaßen virtualisiert. Der Administrator kann über alle Nodes hinweg einen virtuellen Server, einen V-Server, mit einem einheitlichen Global Namespace einrichten, über den sämtliche Volumes ansprechbar sind. Parallel zur Zahl der Namespaces verringert sich auch der administrative Aufwand für ihre Verwaltung, die Administration arbeitet erheblich effizienter. Zwar wird man aus praktischen Erwägungen heraus zumeist mehrere V-Server einrichten. Doch sie alle sind Teil eines einzigen Namespace. Welche Hardware hinter einem V-Server steckt, ist aus Applikationssicht weitgehend irrelevant. Außerdem lassen sich problemlos auch die Controller-Typen mischen. Eine Maschine aus der FAS2000-Serie von NetApp lässt sich kombinieren mit einer FAS3200 und/oder einer FAS6200. Über die V-Serie von NetApp kann die IT-Abteilung außerdem Third-Party- Storage von anderen Anbietern in den Cluster aufnehmen. Alle Controller lassen sich mit ein und demselben Verwaltungstool administrieren, dem NetApp System Manager 2.0. Auch das bringt noch einmal eine Vereinfachung und Effizienzsteigerung. Eine solche heterogene Infrastruktur mit Storage-Controllern aus dem Entry-, Midlevelund Highend-Bereich und mit Maschinen unterschiedlicher Hersteller bietet sich natürlich für ein Tiering an. Den Controllern mit Highspeed- Storage, die also beispielsweise mit verhältnismäßig kleinen, aber kostenintensiven SSDs oder SAS-Platten bestückt sind, würde man dabei Daten zuweisen, auf die besonders häufig zugegriffen wird. Auf die Storage-Controller mit den preiswerteren, weniger performanten SATA-Disks mit der höheren Speicherkapazität hingegen kann der Administrator solche Daten auslagern, die seltener benötigt werden oder archiviert werden sollen. Trotz eines Global Namespace und einer virtuellen Server-Struktur sind ONTAP-8.1- Clus ter mandantenfähig. Die V-Server-Einheiten sind genauso sicher voneinander trennbar als handele es sich um Controller, die physisch voneinander separiert sind. Über eine rollenbasierte Zugriffskontrolle ist dafür gesorgt, dass auch die Administration jeweils auf die verschiedenen, definierten Einheiten beschränkt werden kann. Die SAN- und NAS-Protokolle werden überall in vollem Umfang unterstützt. Wichtig ist die Mandantenfähigkeit beispiels weise für Service-Provider: Sie müssen ihren Kunden die Gewähr bieten können, dass ihre oftmals hochsensiblen Daten von niemand anderem eingesehen werden können, auch wenn sie auf einem gemeinsamen Storage-Controller liegen. Aber auch innerhalb von Unternehmen existieren Bereiche, wo es darum geht, dass Daten lediglich bestimmten Benutzergruppen zugänglich sind. Beispiele dafür sind etwa die Lohnbuchhaltung oder die Personalverwaltung. Storage-Effizienz im Cluster In NetApps Unified Architecture wachsen virtualisierter Storage und Scale-Out-NAS zusammen. Storage-Effizienz war in den vergangenen Jahren eines der beherrschenden Themen bei NetApp. Denn den rapide wachsenden Datenbeständen stehen in den meisten Unternehmen stagnierende oder nur leicht erhöhte IT-Budgets gegenüber. Die IT-Infrastruktur muss also effizienter werden, um die steigenden Anforderungen erfüllen zu können. NetApp bietet seinen Kunden in diesem Zusammenhang folgende Funktionen und Tools an: Deduplizierung: Durch das Ersetzen mehrfach vorhandener Datenblöcke durch Pointer, die auf ein Original verweisen, lassen sich Datenbestände in der Praxis auf durchschnittlich etwa ein Zehntel reduzieren. RAID DP: Die von NetApp entwickelte RAID- Technik arbeitet mit zwei Paritäten, weshalb auch bei einem Ausfall von zwei Festplatten die enthaltenen Daten rekonstruierbar sind. Da bei RAID DP zusätzlich zu den Nutzdaten lediglich die Paritäten gespeichert werden, ist das entstehende Datenvolumen um bis zu 46 Prozent geringer als bei einem RAID 1-System. Thin Provisioning: Mit dieser Funktion lässt sich der ungenutzte, freie Speicherplatz auf einem System um 20 bis 33 Prozent reduzieren, indem der Storage den Applikationen

17 Nur die synchrone Spiegelung und das Vaulting sind noch nicht in den Cluster-Mode integriert. flexibel zugewiesen wird. Thin Provisioning ist eine der wirksamsten Methoden zur Effizienzsteigerung von Storage-Systemen. Flash Cache: Die intelligente Cache-Technologie erhöht den I/O-Durchsatz von SATA-Laufwerken um bis zu 75 Prozent. Oder, anders ausgedrückt: Es sind 75 Prozent weniger Disks erforderlich, um die gleichen Performance- Werte zu erreichen. Snapshots: Die Snapshot-Technologie von NetApp speichert nach dem ersten Schnappschuss des Gesamtsystems lediglich noch die Datenblöcke, die sich seit dem letzten Mal verändert haben. Auf diese Weise lässt sich das Datenvolumen um etwa 80 Prozent reduzieren. Thin Replication: NetApp SnapMirror Thin Replication arbeitet mit einer inkrementellen Replikation auf Blockebene und mit Snapshots und kann dadurch Sicherungen erheblich schneller und kostengünstiger durchführen. Virtual Copies: Das NetApp-Tool FlexClone erzeugt eine Art beschreibbarer Snapshots, die sich dadurch auszeichnen, dass sie bei unverändertem Datenbestand auch keinen Speicherplatz benötigen. Erst wenn Originaldaten hinzugefügt, bearbeitet oder gelöscht wurden, legt das Tool die veränderten Blöcke ab. Die genannten Funktionen setzen an unterschiedlichen Punkten an, um große Datenbestände zu reduzieren, ihre Wirkungen ergänzen sich. Sie alle tragen dazu bei, dass Storage-Systeme effizienter werden und größere Datenmengen verarbeiten können. Sie sind in ONTAP 8.1 ohne Ausnahme auf den NetApp-Systemen der FAS- und V-Serie verfügbar. Hinzu kommen die oben genannten Protokolle sowie die Neuerungen wie etwa die integrierte Antiviren-Software. Zudem bieten die Systeme ein Remote Caching, mit dem die Kunden an entfernten Standorten einen auf NFS basierenden Zwischenspeicher einrichten können, über den sie schnelleren Zugriff auf die Daten eines NAS-Systems bekommen. NetApp ist derzeit der einzige Hersteller, der die genannten Storage-Effizienz-Funktionalitäten auf einem Scale-out-Clustering-System zur Verfügung stellt. Sie wurden eins zu eins von Data ONTAP 7 auf die aktuelle Version 8.1 übernommen. Einzig allein die synchrone Spiegelung und SnapVault für Disk-to-Disk-Backups wurden vom ONTAP-7-Mode (noch) nicht übertragen. Storage-Systeme live erleben Technik lässt sich oft einfacher begreifen, wenn man die Hardware und Software vor sich hat und von einem Fachmann vorgeführt bekommt. Das gilt auch für Storage-Systeme. NetApp gibt daher mit seinen TechDemo-Events allen Interessenten die Möglichkeit, NetApp- Systeme einmal in der Praxis zu erleben und direkt Fragen zu einzelnen Aspekten zu stellen. Die TechDemos finden regelmäßig jede Wo che in mehreren deutschen Städten statt. Alternativ führt die TIM AG individuelle TechDemos beim Systemhaus vor Ort durch. Die Teilnahme ist kostenlos. Rund 95 Prozent der Veranstaltungsdauer werden üblicherweise für Vorführungen an den verschiedenen NetApp-Systemen und von praktischen Anwendungsszenarien genutzt. Die anwesenden Experten erklären nicht nur die Funktionsweise der Maschinen, sondern geben Anwendern auch Tipps und sind offen für Fragen zu individuellen Problemen. Natürlich ergibt sich während der Veranstaltungen auch Gelegenheit zum Erfahrungsaustausch mit anderen NetApp-Kunden. Interessant sind die TechDemos aber nicht nur für bestehende Kunden, sondern ganz generell für IT-Profis und Budget-Verantwortliche, die sich über die NetApp-Technologie informieren möchten. Im Einzelnen stehen diese Themen zur Auswahl: Überblick: Während dieser TechDemo wird demonstriert, wie man mit NetApp mehr Effizienz ins Rechenzentrum bringt, die Backup-Zeiten verringert und den Storage-Bedarf reduziert. Update: Unter dieser Überschrift präsentieren die NetApp-Experten, was es rund um die Storage-Systeme der Firma Neues gibt, und liefern hilfreiche Tipps und Hinweise zu den Systemen. Archive: In dieser Veranstaltung geht es ausschließlich um die Archivierung mithilfe von Storage-Systemen. Zusammen mit seinen Partnern PoINT, Henrichsen, H&S Heilig und Schubert Software führt NetApp eine moderne, elektronische Archivierungs-Infrastruktur vor und informiert über Möglichkeiten zur Einführung eines solchen Systems. Backup: Diese TechDemo beschäftigt sich mit den Backup-to-Disk-Technologien von NetApp und dabei insbesondere mit Snapshots. Vorgestellt wird unter anderem die Backup- Management-Software SnapProtect. Virtualisierung: Alles rund um VMware vsphere 5, Microsoft Hyper-V und Citrix Xen Desktop und das Zusammenspiel mit den NetApp- Produkten ist das Thema in dieser TechDemo. DeepDive: Unter diesem Titel bündelt NetApp Veranstaltungen, die sich mit einzelnen Funktionen und Konzepten der NetApp- Technologie eingehender beschäftigen. Im Einzelnen heißen die: TechDemos Monitoring, Thin Provisioning, gekaufte Gigabyte effektiv nutzen, Performance überwachen und verstehen, Snap drive, NetApp Know-how, Snapshots und was dann?, NetApp Scripting, VMware Best Practice, Oracle auf NetApp FAS, System Management, FlexPod und Virtualisierung (DeepDive). Shared Infrastructure: Zusammen mit Cisco stellt NetApp während dieser TechDemo Konzepte und Techniken zur IT-Konsolidierung und Kostensenkung vor. Private Cloud: In dieser Veranstaltung dreht sich alles um die Integration von Microsoftund NetApp-Produkten und um die Virtualisierung im Data Center mit Microsoft Hyper-V. SAP Referenz-Architektur / SAP HANA: In dieser Veranstaltung wird ein vollautomatisierter Workflow zum Bereitstellen von SAP- Systemen für Testumgebungen oder zum Erzeugen von SAP Standby-Systemen vorgeführt. Außer dem geht es um die Zusammenarbeit von NetApp-, Cisco- und SAP-Systemen. Spezial Cluster Mode: Wer nach dem vorangegangenen Text weitere Informationen zum Cluster-Mode von Data ONTAP 8.1 sucht, ist auf dieser Veranstaltung gut aufgehoben. Healthcare: Bei dieser TechDemo demonstrieren die Experten, wie sich mit NetApp- Produkten im Gesundheitswesen die Total Costs of Owner ship senken und gleichzeitig die Verfügbarkeit und die Performance erhöhen lassen. Jede TechDemo dauert inklusive Pausen zwischen drei und vier Stunden. Informationen zu Terminen und Veranstaltungsorten sowie ein Anmeldeformular stehen unter der Adresse bereit. Individuelle Termine unter Tel Weitere Informationen: TIM AG Tel xx 17 yy

18 Hersteller Quantum Backup-Lösungen für mehr Effizienz und Wirtschaftlichkeit Mit seinen Disk- und Tape-Devices führt Quantum vor, wie sich die beiden Technologien zum Nutzen des Kunden sinnvoll miteinander kombinieren lassen. Backup und Restore müssen schneller und einfacher werden. Das sind, kurz zusammengefasst, die beiden wichtigsten Anforderungen an die Backup-Administratoren. Eine Beschleunigung der Sicherungen ist erforderlich, da die Datenmengen rasant zunehmen, während die Zeitfenster fürs Backup unverändert bleiben und tendenziell sogar eher verkleinert werden. Gleichzeitig sollen Restore-Vorgänge beschleunigt werden, um auf diese Weise die Downtime der Systeme zu verringern und die Produktivität der betroffenen Abteilungen so schnell wie möglich wiederherzustellen. Was die Forderung nach Vereinfachung angeht, so bezieht sie sich vor allem auf das Datenhandling. Es soll so weit wie möglich automatisiert werden, um die damit befassten Mitarbeiter an anderer Stelle einsetzen zu können. Teilweise ist eine Automatisierung schon allein deshalb notwendig, da bei vielen Unternehmen die kleineren Vertriebsaußenstellen keine eigene IT-Abteilung beschäftigen. Die Datensicherung muss daher unabhängig von User-Eingriffen funktionieren. Außerdem steht natürlich jede IT-Abteilung ständig unter dem Druck, ihre Kostenstruktur kontinuierlich zu überprüfen und zu optimieren. Die Aufbewahrung älterer Daten, die beispielsweise aus Compliance-Gründen nicht gelöscht werden dürfen, soll zum einen so organisiert werden, dass sie sicher geschützt sind und nur ausgewählte Personen darauf Zugriff haben. Gleichzeitig soll die Lagerung natürlich so günstig wie möglich sein. Mischumgebung fürs Backup Quantum begegnet diesen unterschiedlichen Anforderungen bei der Datensicherung mit einem Konzept, das sowohl Disk- wie auch Tape-basierte Backups umfasst. Die Appliances aus der DXi-Serie sind mit Festplatten ausge rüstet, bei den Scalar-Systemen der Firma handelt es sich um Tape Libraries. Quantum ist davon überzeugt, dass der Kunde die bestmögliche Performance und Effizienz erzielt, indem er beides miteinander kombiniert und die Kapazität der Systeme an seine Anforderungen anpasst. So lässt sich beispielsweise die DXi4600 von 2 bis hin zu 12 Terabyte skalieren. Viele Kunden wählen dabei zunächst eine niedrigere Ausbaustufe, um später auf einen steigenden Storage-Bedarf reagieren zu können. Mit der Key-Freischaltung hat Quantum dabei eine besonders einfache und schnell umsetzbare Methode ersonnen, um die Kapazität zu skalieren: Der Kunde bekommt die DXi4600 von vornherein mit einer höheren Festplatten-Kapazität geliefert als er benötigt. Was über den bestellten Bedarf hinausgeht, ist jedoch zunächst nicht verfügbar. Wenn die Anforderungen im Laufe der Zeit wachsen, kann er den zusätzlichen Storage über einen Software-License-Key selbstständig in 2-Terabyte-Schritten freischalten (Capacity on DX 4510 DX 4601 DX 6700 Demand). Auf diese Weise passt er das System jederzeit flexibel an seine Bedürfnisse an und muss wegen der Kapazitätserweiterung keine Betriebsunterbrechung in Kauf nehmen. Die DXi-Appliances von Quantum sind konzipiert für Disk-to-Disk-Backups (D2D). Dank schneller Zugriffszeiten und der Online- Verfüg barkeit der Daten erlauben sie schnelle Restore-Vorgänge, was beim Desaster-Recovery-Fall die Downtime der betroffenen Systeme so kurz wie möglich hält. Gleichzeitig bieten sie eine Deduplizierung der gesicherten Daten an. Mit dieser Technik werden doppelt vorhandene Datenblöcke durch Pointer ersetzt, die auf die Originale verweisen. Dank der von Quantum eingesetzten Deduplizierung mit variabler Blocklänge arbeiten die Appliances besonders effektiv. Laut einer Untersuchung des Marktforschungsinstituts IDC bei verschiedenen Quantum-Kunden kann damit das Datenvolumen im Durchschnitt um etwa den Faktor 15:1 oder 93 Prozent reduziert werden. Für die Unternehmen bedeutet das deutliche Einsparungen bei den Storage-Kosten. Gleichzeitig ist es damit möglich, die knapp gewordenen Backup-Zeitfenster wieder einzuhalten. Doch in manchen IT-Umgebungen machen sich anschließend andere Flaschenhälse bemerkbar, die ein schnelles Sichern der Daten verhindern. So ergab sich bereits bei mehreren Kunden der Fall, dass auch die Weiterleitung der deduplizierten, also reduzierten Datenmenge nicht innerhalb des vorgegebenen Zeit fensters Scalar Tape Library Die DXi-Familie bietet eine Disk-basierte Datensicherung für Zweigstellen & Rechenzentren, erlaubt einen automatisierten DR-Schutz durch Replikation und ermöglicht eine transparente Auslagerung der Backups auf moderne Tape Libraries. möglich war, da die Verbindung zwischen Server-Infrastruktur und Backup-Umgebung zu schmalbandig ausgelegt war. Für diese Fälle hat Quantum Accent entwickelt. Die Software wird auf dem Media- oder Backupserver eingerichtet und ermöglicht eine Deduplizierung auf der Source-Seite. Dazu kommuniziert sie mit der DXi und analysiert, welche Daten aus dem aktuellen Backup-Satz dort bereits vorhanden sind. Diese Blöcke werden daher nicht mehr übers Netzwerk geschickt, sondern bereits im Vorfeld durch Pointer ersetzt. Das verringert spürbar die Belastung des LAN und ermöglicht innerhalb eines vertretbaren Zeitfensters auch bei schmalbandigen Verbindungen das Sichern großer Datenmengen. Der Nachteil ist natürlich, dass beim Mediaoder Backupserver CPU-Kapazität abgezwackt wird wie viel lässt sich mit dem Bordwerkzeug des Betriebssystems und durch Priorisierung der entsprechenden Prozesse steuern.

19 Ob der Einsatz von Accent sinnvoll ist oder nicht, muss jeweils anhand der vorhandenen IT-Infrastruktur entschieden werden. Mithilfe spezieller Analyse-Tools lässt sich bereits im Vorfeld einschätzen, wie stark die CPU- Belastung auf dem Media- oder Backupserver vermutlich ausfallen würde und ob die nach vorne gezogene Deduplizierung die Datensicherung beschleunigt oder sie im Endeffekt eher hemmt. Daher kann der Administrator den Einsatz von Accent auf einzelne Server beschränken oder die Software auch auf mehreren Maschinen parallel laufen lassen. Disk und Tape ergänzen sich Media Server with DXi Accent Enabled Media Server with DXi Accent Enabled WAN connection to remote site Local LAN connection DXi6701/02 Media Server with DXi Accent Disabled Direct tape creation over FC for long-term retention Replication to DXi appliance for DR Die Datensicherung auf Band kann auf eine lange Geschichte verweisen. In den vergangenen Jahren schien sie jedoch gegenüber den D2D-Backups den Rückzug angetreten zu haben. Mittlerweile hat sich jedoch gezeigt, dass die neuen D2D-Verfahren dem Tape gewissermaßen sogar eine Bestandsgarantie gegeben haben. Disk-basierte Hardware wie die Quantum DXi erfüllt heute die Funktion einer Art Cache für Tape-Laufwerke wie die Scalar-Serie von Quantum. Die Festplatten halten die frisch gesicherten Daten bereit für schnelle Restore-Vorgänge. Die D2D-Sicherungen lassen sich weitgehend automatisieren die Appliances sind wartungsarm, und es müssen im Normalfall keine Medien ausgetauscht werden. Entsprechende Backup- Routinen eignen sich also auch für Außenstellen, die keine eigene IT-Abteilung beschäftigen. Für eine abschließende Archivierung können die Daten schließlich per WAN ins Rechenzentrum der Unternehmenszentrale übertragen werden. Häufig wird auf Disk-Devices ein Tiering organisiert: Die Datenblöcke werden automatisch auf preiswerte, jedoch weniger performante SATA-Platten gelegt, die Verwaltungsdatenbanken hält man auf schnellen, dafür allerdings teureren SSDs vor. Auf diese Weise erreicht man eine optimale Ausnutzung der vorhandenen Ressourcen. Mit Tape-Laufwerken kann man sozusagen noch ein weiteres Tier-Level hinzufügen. Tapes haben den Vorteil, dass sie Daten speichern, ohne dabei Strom zu verbrauchen. Hinzu kommt die hohe Kapazität: Die sechste Generation der LTO-Laufwerke kann die Bänder mit bis zu 8 Terabyte komprimierten Daten bestücken. Von einem ökonomischen Standpunkt aus gesehen sind sie daher bei langen Aufbewahrungsfristen den Festplatten überlegen. Hohe Sicherheit durch Verschlüsselung Die DXi Accent Software erlaubt, Backup- und/oder Media-Server aktiv am Deduplizierungsprozess zu beteiligen. So werden nur noch einzigartige Datenblöcke über das LAN oder WAN an die DXi Appliance gesendet. Hinzu kommt die hohe Sicherheit: Alle LTO-4- und LTO-5-Libraries verschlüsseln die Daten mit einem 256-Bit-AES-Algorithmus, die Daten sind daher mit Brute-Force-Attacken praktisch nicht lesbar zu machen. Um die aufwendige Verwaltung der Schlüssel zu vereinfachen, bietet Quantum die Scalar Key Manager Appliance an, die perfekt angepasst ist an die Tape-Libraries der Firma. Die Appliance generiert die Schlüssel, registriert die Zuordnungen zu den Bändern und synchronisiert die Schlüssel- Datenbanken zwischen den primären und den sekundären Appliances. Einmal eingerichtet, braucht sich der Administrator um das Schlüssel-Management nicht mehr zu kümmern. Ganz generell sorgt aber bereits schon der Technologiewechsel von Disk zu Tape für einen höheren Schutz der Daten. Durch den Wechsel von online verfügbaren Festplatten zu offline verwahrten Tapes werden die Datenbestände in einem kontinuierlichen Vorgang aus dem direkten Zugriff von Angreifern genommen. Einen Nachteil hat die Kombination aus D2D-Backup und Tape-Archivierung allerding doch: Die Daten müssen in zwei Durchläufen gesichert werden. Üblicherweise landen sie zunächst auf einer Virtual Tape Library (VTL) oder einem NAS-Device, anschließend werden sie auf Vision vereinheitlicht das Management für alle Quantum Disk-/Tape-Lösungen und liefert de taillierte Status der Systeme auch unterwegs für ios- und Android-basierte Mobilgeräte. Tapes übertragen. Der kontrollierende Backupserver wird daher doppelt belastet. Quantum hat daher mit Direct Path to Tape ein Verfahren entwickelt, um diesen Vorgang zu vereinfachen und zu beschleunigen. Der Server behält dabei trotzdem die Kontrolle über den gesamten Vorgang, initiiert und überwacht die Sicherungsläufe. Möglich machen das entsprechende Funktionen unter anderem in Symantec NetBackup, Backup Exec und EMC NetWorker. Mit Direct Path to Tape ergibt sich aber noch ein weiterer Vorteil: Solange ein Backup sowohl auf der DXi wie auf Tape vorliegen, lässt sich im Restore-Fall auswählen, von wo aus die Daten wiederhergestellt werden sollen. Oft ist dabei das Tape vorteilhafter, da schneller: Denn auf der DXi liegen die Daten dedupliziert vor, müssen also erst rekonstruiert werden. Sobald das Tape andererseits erst einmal eingelegt ist, lassen sich die Daten mit Transferraten von bis zu 100 MByte zurückkopieren. Eine noch tiefere Integration wird über die OpenStorage API von Symantec erreicht, um beispielsweise in Replikationsszenarien die komplette Kontrolle beim Backupserver zu belassen. Somit sind Szenarien wie Backup-to-Disk > Replikation > Disk-to-Tape automatisiert möglich. Der Administrator kann auch hier im Restore- Fall entscheiden, von welchem Tier er einen Restore starten möchte. Einheitliche Verwaltung Quantum bietet umfassende, aufeinander abgestimmte Lösungen für effiziente und wirtschaftliche Backups an. Um die verfügbaren Features der Hardware jedoch in vollem Umfang einsetzen zu können, braucht es auch eine entsprechende Software für die Steuerung und Verwaltung. Und auch die hat der Hersteller im Programm: Mit Quantum Vision lassen sich die Disk- und Tape-Devices über eine einheitliche Management-Oberfläche konfigurieren und über wachen, was dann zum Schluss die Effizienz der Quantum-Lösungen noch einmal erhöht. Weitere Informationen: TIM AG Tel xx 19 yy

20 Elanity Network Partner GmbH Hannover Tel. 0511/ URANO Informationssysteme GmbH Bad Kreuznach Tel. 0671/ INNEO Solutions GmbH Ellwangen Tel / Midland IT GmbH Minden Tel. 0571/ QOSIT Informationstechnik GmbH Siegen Tel. 0271/ Bechtle Logistik & Service GmbH Neckarsulm Tel / interface systems GmbH Dresden Tel. 0351/ unilab Systemhaus GmbH Paderborn Tel / ahd hellweg data GmbH & Co. KG Ense Tel / HWI Network Security e. K Teningen Tel / COMPAREX Deutschland AG Leipzig Tel. 0341/ DextraData GmbH Essen Tel. 0201/ Pan Dacom Networking AG Dreieich Tel / tproneth GmbH & Co. KG The Storage Company Puchheim Tel. 089/ Wichmann Datentechnik GmbH Sangerhausen Tel. 0345/ CNS Computer Network Systemengineering GmbH Gelsenkirchen-Buer Tel. 0209/ ITservices24 GmbH Alzenau Tel / NAVUM GmbH Stegen a. A. Tel / Kiefel Informationssysteme GmbH & Co. KG Frankenberg Tel /77-0 Global Information Distribution GmbH Köln Tel. 0821/ SAC GmbH Darmstadt Tel / SanData Solutions GmbH Garching Tel. 089/ ebunet e. Kfm Berlin Tel. 030/ dualutions Gmbh Köln Tel. 0221/ Concat AG Bensheim Tel / Systemzwo GmbH Ulm Tel. 0731/ Systema Gesellschaft für an gewandte Datentechnik mbh Potsdam Tel. 0331/ Logicalis Gmbh Köln Tel / Carpe diem Kommunikations- Technologie GmbH Wiesbaden Tel. 0611/ Schuster & Walther IT-Business GmbH Nürnberg Tel. 0911/ Friedrich Karl Schroeder GmbH & Co. KG Hamburg Tel. 040/ Pironet NDH AG Köln Tel. 0221/ CCP Condor Computer GmbH Stuttgart Tel. 0711/ teamix GmbH Nürnberg Tel. 0911/ TRAFFIX Network Partner GmbH Hamburg Tel. 040/ H & G, Hansen & Gieraths GmbH Bonn Tel. 0228/ Stemmer GmbH Empfingen Tel / SWS Computersysteme AG Hauzenberg Tel / BASYS EDV-Systeme GmbH Bremen Tel. 0421/ anykey GmbH Bonn Tel / am-computersysteme GmbH Nürtingen Tel / HENRICHSEN AG Straubing Tel / GRASS-MERKUR GmbH & Co. KG Hannover Tel. 0511/ IT-Haus GmbH Föhren Tel / TIM AG Wiesbaden Tel

Backup- und Replikationskonzepte. SHE Informationstechnologie AG Patrick Schulz, System Engineer

Backup- und Replikationskonzepte. SHE Informationstechnologie AG Patrick Schulz, System Engineer Backup- und Replikationskonzepte SHE Informationstechnologie AG Patrick Schulz, System Engineer Übersicht Vor dem Kauf Fakten zur Replizierung Backup to Agentless Backups VMware Data Protection Dell/Quest

Mehr

(früher: Double-Take Backup)

(früher: Double-Take Backup) (früher: Double-Take Backup) Eine minutengenaue Kopie aller Daten am Standort: Damit ein schlimmer Tag nicht noch schlimmer wird Double-Take RecoverNow für Windows (früher: Double-Take Backup) sichert

Mehr

Dell Data Protection Solutions Datensicherungslösungen von Dell

Dell Data Protection Solutions Datensicherungslösungen von Dell Dell Data Protection Solutions Datensicherungslösungen von Dell André Plagemann SME DACH Region SME Data Protection DACH Region Dell Softwarelösungen Vereinfachung der IT. Minimierung von Risiken. Schnellere

Mehr

4 Planung von Anwendungsund

4 Planung von Anwendungsund Einführung 4 Planung von Anwendungsund Datenbereitstellung Prüfungsanforderungen von Microsoft: Planning Application and Data Provisioning o Provision applications o Provision data Lernziele: Anwendungen

Mehr

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG!

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! JUNI 2011 Sehr geehrter Geschäftspartner, (oder die, die es gerne werden möchten) das Thema Virtualisierung oder die Cloud ist in aller Munde wir möchten Ihnen

Mehr

Dunkel Cloud Storage. Der sichere Cloud-Speicher für Unternehmen

Dunkel Cloud Storage. Der sichere Cloud-Speicher für Unternehmen Dunkel Cloud Storage Der sichere Cloud-Speicher für Unternehmen Was ist Dunkel Cloud Storage? Dunkel Cloud Storage (DCS) stellt Ihnen Speicherplatz nach Bedarf zur Verfügung, auf den Sie jederzeit über

Mehr

Klicken. Microsoft. Ganz einfach.

Klicken. Microsoft. Ganz einfach. EMC UNIFIED STORAGE FÜR VIRTUALISIERTE MICROSOFT- ANWENDUNGEN Klicken. Microsoft. Ganz einfach. Microsoft SQL Server Microsoft SQL Server-Datenbanken bilden die Basis für die geschäftskritischen Anwendungen

Mehr

Isilon Solutions + OneFS

Isilon Solutions + OneFS Isilon Solutions + OneFS Anne-Victoria Meyer Universität Hamburg Proseminar»Ein-/Ausgabe Stand der Wissenschaft«, 2013 Anne-Victoria Meyer Isilon Solutions + OneFS 1 / 25 Inhalt 1. Einleitung 2. Hardware

Mehr

Disaster Recovery/Daily Backup auf Basis der Netapp-SnapManager. interface:systems

Disaster Recovery/Daily Backup auf Basis der Netapp-SnapManager. interface:systems Disaster Recovery/Daily Backup auf Basis der Netapp-SnapManager interface:systems Frank Friebe Consultant Microsoft frank.friebe@interface-systems.de Agenda Warum Backup mit NetApp? SnapManager für Wie

Mehr

TIM AG. NetApp @ BASYS. Dipl. Informatiker (FH) Harald Will Consultant

TIM AG. NetApp @ BASYS. Dipl. Informatiker (FH) Harald Will Consultant NetApp @ BASYS Dipl. Informatiker (FH) Harald Will Consultant Organisatorisch Teilnehmerliste Agenda NetApp @ BASYS Data ONTAP Features cdot die neue Architektur Flash die neue Technologie Live Demo Agenda

Mehr

Infrastruktur-Lösungen für PDM/PLM und mehr. 2. IT-Expertenforum 24.06.2010 in Aalen

Infrastruktur-Lösungen für PDM/PLM und mehr. 2. IT-Expertenforum 24.06.2010 in Aalen 2. IT-Expertenforum 24.06.2010 in Aalen Backup heute: Hauptprobleme Operative Aspekte Gängigste technische Probleme beim Backup und Recovery: 66 % Backup-Fenster einhalten 49 % Zu langes Recovery 40 %

Mehr

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Seit Microsoft Exchange Server 2010 bieten sich für Unternehmen gleich zwei mögliche Szenarien an, um eine rechtskonforme Archivierung

Mehr

Die maßgeschneiderte IT-Infrastruktur aus der Südtiroler Cloud

Die maßgeschneiderte IT-Infrastruktur aus der Südtiroler Cloud Die maßgeschneiderte IT-Infrastruktur aus der Südtiroler Cloud Sie konzentrieren sich auf Ihr Kerngeschäft und RUN AG kümmert sich um Ihre IT-Infrastruktur. Vergessen Sie das veraltetes Modell ein Server,

Mehr

RAID. Name: Artur Neumann

RAID. Name: Artur Neumann Name: Inhaltsverzeichnis 1 Was ist RAID 3 1.1 RAID-Level... 3 2 Wozu RAID 3 3 Wie werden RAID Gruppen verwaltet 3 3.1 Software RAID... 3 3.2 Hardware RAID... 4 4 Die Verschiedenen RAID-Level 4 4.1 RAID

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

GoVault Data Protection-Software Überblick

GoVault Data Protection-Software Überblick 1226-GoVaultSoftware-GermanTranslation-A4 13/3/08 09:16 Page 1 Das GoVault-System enthält die Windows-basierte Software GoVault Data Protection und bildet damit eine komplette Backup- und Restore-Lösung

Mehr

Acronis Backup Advanced für Citrix XenServer

Acronis Backup Advanced für Citrix XenServer Acronis Backup Advanced für Citrix XenServer Vollständiges Backup und Recovery für Ihre Citrix XenServer- Umgebung! Schützen Sie Ihre komplette Citrix XenServer-Umgebung mit effizienten Backups in einem

Mehr

Isilon Solutions + OneFS

Isilon Solutions + OneFS Isilon Solutions + OneFS Anne-Victoria Meyer Betreuer: Dr. Julian Kunkel Proseminar: Ein-/Ausgabe - Stand der Wissenschaft 16. Oktober 2013 Contents 1 Einleitung 2 1.1 Scale-Out-NAS..........................

Mehr

Software oder Appliance basierende Deduplikation Was ist die richtige Wahl? Storagetechnology 2010

Software oder Appliance basierende Deduplikation Was ist die richtige Wahl? Storagetechnology 2010 Software oder Appliance basierende Deduplikation Was ist die richtige Wahl? Storagetechnology 2010 Frank Herold Manager PreSales CEE Quantums Portfolio StorNextSoftware DXiSerie ScalarSerie ManagementTools

Mehr

Think Fast: Weltweit schnellste Backup-Lösung jetzt auch für Archivierung

Think Fast: Weltweit schnellste Backup-Lösung jetzt auch für Archivierung Think Fast: Weltweit schnellste Backup-Lösung jetzt auch für Archivierung Weltweit schnellste Backup-Systeme Das weltweit erste System für die langfristige Aufbewahrung von Backup- und Archivdaten 1 Meistern

Mehr

Bewertung der Methoden zur Sicherung von virtuellen Maschinen (VMware, Hyper-V) Ein Erfahrungsbericht

Bewertung der Methoden zur Sicherung von virtuellen Maschinen (VMware, Hyper-V) Ein Erfahrungsbericht Bewertung der Methoden zur Sicherung von virtuellen Maschinen (VMware, Hyper-V) Ein Erfahrungsbericht Jens Appel (Consultant) Jens.Appel@interface-systems.de interface business GmbH Zwinglistraße 11/13

Mehr

herzlich vsankameleon Anwendungsbeispiel Titelmasterformat durch Klicken bearbeiten willkommen Titelmasterformat durch Klicken bearbeiten

herzlich vsankameleon Anwendungsbeispiel Titelmasterformat durch Klicken bearbeiten willkommen Titelmasterformat durch Klicken bearbeiten herzlich willkommen vsankameleon Anwendungsbeispiel Powered by DataCore & Steffen Informatik vsan? Kameleon? vsan(virtuelles Storage Area Network) Knoten Konzept Titelmasterformat Alle HDD s über alle

Mehr

Copyright 2015 DataCore Software Corp. All Rights Reserved. 1

Copyright 2015 DataCore Software Corp. All Rights Reserved. 1 Copyright 2015 DataCore Software Corp. All Rights Reserved. 1 Software Defined Storage - wenn Storage zum Service wird - Jens Gerlach Regional Manager West Copyright 2015 DataCore Software Corp. All Rights

Mehr

Auf der Welle der Virtualisierung ein Blick in die Zukunft mit Quest Software

Auf der Welle der Virtualisierung ein Blick in die Zukunft mit Quest Software Auf der Welle der Virtualisierung ein Blick in die Zukunft mit Quest Software Dipl. Ing. Stefan Bösner Sr. Sales Engineer DACH Stefan.Boesner@quest.com 2010 Quest Software, Inc. ALL RIGHTS RESERVED Vizioncore

Mehr

Achim Marx Mittwoch, 2. Oktober 2013 S&L Netzwerktechnik GmbH 1

Achim Marx Mittwoch, 2. Oktober 2013 S&L Netzwerktechnik GmbH 1 Achim Marx 1 Überblick SCDPM 2012 SP1 Was macht der Data Protection Manager? Systemanforderungen Neuerungen Editionen Lizenzierung SCDPM und VEEAM: Better Together 2 Was macht der Data Protection Manager?

Mehr

Backup & Recovery. Einfach & Effektiv. The heart of the network

Backup & Recovery. Einfach & Effektiv. The heart of the network Backup & Recovery Einfach & Effektiv Agenda Allgemeines zum Backup Backup Strategien Backup-to-Disk Tiered Storage - Hierarchisches Speicher Management D-Link und der Tiered Storage Ansatz wachstum Weltweites

Mehr

Backup in virtuellen Umgebungen

Backup in virtuellen Umgebungen Backup in virtuellen Umgebungen Webcast am 30.08.2011 Andreas Brandl Business Development Storage Übersicht Virtualisierung Datensicherungsverfahren D-Link in virtuellen Umgebungen Backup + Restore DSN-6000

Mehr

egs Storage Offensive

egs Storage Offensive egs Storage Offensive Seit mittlerweile 5 Jahren können wir eine enge Partnerschaft zwischen der egs Netzwerk und Computersysteme GmbH und dem führenden Anbieter im Bereich Datenmanagement NetApp vorweisen.

Mehr

Technische Anwendungsbeispiele

Technische Anwendungsbeispiele Technische Anwendungsbeispiele NovaBACKUP NAS Ihre Symantec Backup Exec Alternative www.novastor.de 1 Über NovaBACKUP NAS NovaBACKUP NAS sichert und verwaltet mehrere Server in einem Netzwerk. Die Lösung

Mehr

dsmisi Storage Lars Henningsen General Storage

dsmisi Storage Lars Henningsen General Storage dsmisi Storage dsmisi MAGS Lars Henningsen General Storage dsmisi Storage Netzwerk Zugang C Zugang B Zugang A Scale-Out File System dsmisi Storage Netzwerk Zugang C Zugang B Zugang A benötigt NFS oder

Mehr

Think Fast EMC Backup & Recovery BRS Sales BRS Pre Sales EMC Corporation. Copyright 2011 EMC Corporation. All rights reserved.

Think Fast EMC Backup & Recovery BRS Sales BRS Pre Sales EMC Corporation. Copyright 2011 EMC Corporation. All rights reserved. Think Fast EMC Backup & Recovery BRS Sales BRS Pre Sales EMC Corporation 1 Verpassen Sie den Technologiesprung? 2 Deduplizierung die Grundlagen 1. Dateneingang 2. Aufteilung in variable Segmente (4-12KB)

Mehr

Tutorial Speichernetze

Tutorial Speichernetze Tutorial Speichernetze Speichervirtualisierung Speichernetze Grundlagen und Einsatz von Fibre Channel SAN, NAS, iscsi und InfiniBand dpunkt.verlag 2003 Agenda Probleme in Speichernetzen Speichervirtualisierung

Mehr

Präsentation für: Copyright 2011 EMC Corporation. All rights reserved.

Präsentation für: Copyright 2011 EMC Corporation. All rights reserved. Präsentation für: 1 IT Herausforderungen Bezahlbar Overcome flat budgets Einfach Manage escalating complexity Effizient Cope with relentless data growth Leistungsstark Meet increased business demands 2

Mehr

Datensicherung Genial Einfach

Datensicherung Genial Einfach Datensicherung Genial Einfach Datenspeicher Explosion Speichern von Datenkopien ist das Problem Speicher für Datenkopien 5x Produktionsdaten 2013: Kosten für Datenkopien übersteigen Kosten für Produktionsdaten

Mehr

Mid-Tier Storage Basis für moderne IT Infrastruktur

Mid-Tier Storage Basis für moderne IT Infrastruktur Mid-Tier Storage Basis für moderne IT Infrastruktur Hans-Werner Rektor Sr. Technology Consultant IP-Storage 1 Unified Speichersysteme Maximum an CPU-Kerne für Unified Datenverarbeitungsleistung Automatische

Mehr

Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT

Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT Folie 1 VDE-Symposium 2013 BV Thüringen und Dresden Virtualisierung von Leittechnikkomponenten Andreas Gorbauch PSIEnergie-EE Folie

Mehr

Wie unterstützt EMC mit Automatisierung die Anforderungen der Server Virtualisierung?

Wie unterstützt EMC mit Automatisierung die Anforderungen der Server Virtualisierung? Wie unterstützt EMC mit Automatisierung die Anforderungen der Server Virtualisierung? Joachim Rapp Partner Technology Consultant 1 Automation in der Speicher-Plattform Pooling Tiering Caching 2 Virtualisierung

Mehr

Heterogenes Speichermanagement mit V:DRIVE

Heterogenes Speichermanagement mit V:DRIVE Heterogenes Speichermanagement mit V:DRIVE V:DRIVE - Grundlage eines effizienten Speichermanagements Die Datenexplosion verlangt nach innovativem Speichermanagement Moderne Businessprozesse verlangen auf

Mehr

Intelligentes Backup/Recovery für virtuelle Umgebungen

Intelligentes Backup/Recovery für virtuelle Umgebungen Intelligentes Backup/Recovery für virtuelle Umgebungen Mario Werner Sales Syncsort GmbH Calor-Emag-Straße 3 40878 Ratingen mwerner@syncsort.com Abstract: In den letzten Jahren haben sich die Situation

Mehr

EMC ISILON & TSM. Hans-Werner Rektor Advisory System Engineer Unified Storage Division. Oktober 2013

EMC ISILON & TSM. Hans-Werner Rektor Advisory System Engineer Unified Storage Division. Oktober 2013 EMC ISILON & TSM Hans-Werner Rektor Advisory System Engineer Unified Storage Division Oktober 2013 1 Tivoli Storage Manager - Überblick Grundsätzliche Technologie Incremental Forever Datensicherungsstrategie

Mehr

EMC ISILON BLEIBT MARKTFÜHRER FÜR SCALE-OUT NAS FÜR ARCHIVE

EMC ISILON BLEIBT MARKTFÜHRER FÜR SCALE-OUT NAS FÜR ARCHIVE EMC ISILON BLEIBT MARKTFÜHRER FÜR SCALE-OUT NAS FÜR ARCHIVE Isilon OneFS: Support für 20 PB Speicherplatz eine Kapazitätssteigerung von 33 % 1 Viele Architekturen sind für Archive nicht ideal Kostenintensiv

Mehr

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte I N F O R M A T I O N V I R T U A L I S I E R U N G Wir schützen Ihre Unternehmenswerte Wir schützen Ihre Unternehmenswerte Ausfallsicherheit durch Virtualisierung Die heutigen Anforderungen an IT-Infrastrukturen

Mehr

Die Jagd nach Backup-Duplikaten wird jetzt noch effektiver. DXi4700 Deduplizierungs-Appliance

Die Jagd nach Backup-Duplikaten wird jetzt noch effektiver. DXi4700 Deduplizierungs-Appliance Die Jagd nach Backup-Duplikaten wird jetzt noch effektiver DXi4700 Deduplizierungs-Appliance Vielleicht die effizienteste, günstigste und leistungsfähigste Die Appliance setzt branchenweit neue Maßstäbe

Mehr

FACTSHEET. Backup «ready to go»

FACTSHEET. Backup «ready to go» FACTSHEET Backup «ready to go» Backup «ready to go» für Ihre Virtualisierungs-Umgebung Nach wie vor werden immer mehr Unternehmensanwendungen und -daten auf virtuelle Maschinen verlagert. Mit dem stetigen

Mehr

PDP. PI Data Protection Produkte & Lösungen im Überblick. PI Data Protection. Überlegene Leistung bei drastisch reduziertem administrativen Aufwand

PDP. PI Data Protection Produkte & Lösungen im Überblick. PI Data Protection. Überlegene Leistung bei drastisch reduziertem administrativen Aufwand Produkte & Lösungen im Überblick Überlegene Leistung bei drastisch reduziertem administrativen Aufwand ist unsere automatische Online-Datensicherungs- und -Datenwiederherstellungslösung, die einen sicheren,

Mehr

Software Defined Storage

Software Defined Storage Software Defined Storage - Wenn Speicher zum Service wird - Copyright 2015 DataCore Software Corp. All Rights Reserved. Copyright 2015 DataCore Software Corp. All Rights Reserved. Über uns... Über 25.000

Mehr

Die Symantec Backup Exec.cloud-Lösung

Die Symantec Backup Exec.cloud-Lösung Automatische, kontinuierliche und sichere Datensicherungen in der Cloud oder mit einem hybriden Modell aus Backups vor Ort und Cloud-basierten Backups. Datenblatt: Symantec.cloud Nur 21 Prozent der kleinen

Mehr

Schnell wieder am Start dank VMware Disaster Recovery Ausfallzeiten minimieren bei der Wiederherstellung von VMs mit Veeam Backup & Replication v6

Schnell wieder am Start dank VMware Disaster Recovery Ausfallzeiten minimieren bei der Wiederherstellung von VMs mit Veeam Backup & Replication v6 Schnell wieder am Start dank VMware Disaster Recovery Ausfallzeiten minimieren bei der Wiederherstellung von VMs mit Veeam Backup & Replication v6 Florian Jankó LYNET Kommunikation AG Vorhandene Tools

Mehr

Software Defined Storage in der Praxis

Software Defined Storage in der Praxis Software Defined Storage in der Praxis Jens Gerlach Regional Manager West 1 Der Speichermarkt im Umbruch 1985 2000 Heute Herausforderungen Serverspeicher Serverspeicher Serverspeicher Hyper-konvergente

Mehr

Voraussetzungen für jeden verwalteten Rechner

Voraussetzungen für jeden verwalteten Rechner Kaseya 2 (v6.1) Systemvoraussetzungen Voraussetzungen für jeden verwalteten Rechner Kaseya Agent 333 MHz CPU oder höher 128 MB RAM 30 MB freier Festplattenspeicher Netzwerkkarte oder Modem Microsoft Windows

Mehr

CA ARCserve D2D. Blitzschnelles Backup und Disaster Recovery könnten Ihren Arbeitsplatz sichern. PRODUKTÜBERBLICK: CA ARCserve D2D r16

CA ARCserve D2D. Blitzschnelles Backup und Disaster Recovery könnten Ihren Arbeitsplatz sichern. PRODUKTÜBERBLICK: CA ARCserve D2D r16 CA ARCserve D2D CA ARCserve D2D ist ein datenträgerbasiertes Wiederherstellungsprodukt, das die perfekte Kombination aus schnellen, einfachen, zuverlässigen Funktionen für Schutz und Wiederherstellung

Mehr

STORAGE IN DEUTSCHLAND 2013

STORAGE IN DEUTSCHLAND 2013 Fallstudie: NetApp IDC Market Brief-Projekt STORAGE IN DEUTSCHLAND 2013 Optimierung des Data Centers durch effiziente Speichertechnologien netapp Fallstudie: Thomas-Krenn.AG Informationen zum Unternehmen

Mehr

WAN Beschleunigung schneller Datentransport, kurze Backupfenster

WAN Beschleunigung schneller Datentransport, kurze Backupfenster Beschleunigung schneller Datentransport, kurze Backupfenster connecting different worlds Christian Hansmann Beschleunigung schneller Datentransport, kurze Backupfenster Begrüßung, Vorstellung Herausforderungen

Mehr

Paradigmenwechsel. bei Backup & Recovery. Sebastian Geisler Business Solution Architect. NetApp Deutschland GmbH

Paradigmenwechsel. bei Backup & Recovery. Sebastian Geisler Business Solution Architect. NetApp Deutschland GmbH Paradigmenwechsel bei Backup & Recovery Sebastian Geisler Business Solution Architect NetApp Deutschland GmbH 1 Herausforderungen für das zukünftige Backup & Recovery? 2 Herausforderungen Backup & Recovery

Mehr

SNW Europe: Arkeia Network Backup 9.0 mit progressiver Deduplizierung

SNW Europe: Arkeia Network Backup 9.0 mit progressiver Deduplizierung SNW Europe: Arkeia Network Backup 9.0 mit progressiver Deduplizierung - Ideal für mit VMware vsphere 4.1 virtualisierte Umgebungen - Allererste Applikation mit Progressive-Deduplication-Technologie für

Mehr

Isilon Scale Out NAS & Big Data

Isilon Scale Out NAS & Big Data Isilon Scale Out NAS & Big Data Ingmar Löke Senior Account Manager ISILON Storage Devision 1 Agenda Marktsituation Welche Treiber sind da draußen? Eingliederung im EMC Portfolio Produkt Überblick Isilon

Mehr

Oracle Automatic Storage Management (ASM) Best Practices

Oracle Automatic Storage Management (ASM) Best Practices Oracle Automatic Storage Management (ASM) Best Practices Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 Agenda ASM Funktionalität und Architektur Storage Management

Mehr

ROSIK Mittelstandsforum

ROSIK Mittelstandsforum ROSIK Mittelstandsforum Virtualisierung und Cloud Computing in der Praxis Virtualisierung in der IT Einführung und Überblick Hermann Josef Klüners Was ist Virtualisierung? In der IT ist die eindeutige

Mehr

KONVERGENTE SPEICHER- UND

KONVERGENTE SPEICHER- UND EMC SCALEIO Softwarebasiertes konvergentes Server-SAN GRUNDLEGENDE INFORMATIONEN Reine Softwarelösung Konvergente Single-Layer- Architektur Lineare Skalierbarkeit Performance und Kapazität nach Bedarf

Mehr

Tivoli Storage Manager für virtuelle Umgebungen

Tivoli Storage Manager für virtuelle Umgebungen Tivoli Storage Manager für virtuelle Umgebungen Sprecher: Jochen Pötter 1 Hinterfragen Sie den Umgang mit ihren virtuellen Maschinen Sichern Sie ihre virtuelle Umgebung? Wie schützen Sie aktuell ihre virtuelle

Mehr

DATA DOMAIN BACKUP-TO-DISK MIT DEDUPLIKATION

DATA DOMAIN BACKUP-TO-DISK MIT DEDUPLIKATION DATA DOMAIN BACKUP-TO-DISK MIT DEDUPLIKATION BACKUP-TO-DISK AUF EIN FESTPLATTENSYSTEM Festplatten zur Verwendung mit einer Backup-Software: z. B. EMC NetWorker DiskBackup Option Restore erfolgt von Festplatte

Mehr

Der Weg zur modernen IT-Infrastruktur mit FlexPod

Der Weg zur modernen IT-Infrastruktur mit FlexPod Der Weg zur modernen IT-Infrastruktur mit FlexPod Der Weg zur modernen IT-Infrastruktur mit FlexPod Das Herzstück eines Unternehmens ist heutzutage nicht selten die IT-Abteilung. Immer mehr Anwendungen

Mehr

VALUESTOR /// MEHRWERT IN DER LANGFRISTIGEN DATENSPEICHERUNG BEST IN DEVELOPMENT AND TECHNOLOGY

VALUESTOR /// MEHRWERT IN DER LANGFRISTIGEN DATENSPEICHERUNG BEST IN DEVELOPMENT AND TECHNOLOGY VALUESTOR /// MEHRWERT IN DER LANGFRISTIGEN DATENSPEICHERUNG BEST IN DEVELOPMENT AND TECHNOLOGY VALUESTOR /// MEHRWERT IN DER LANGFRISTIGEN DATENSICHERUNG Machen Sie sich die Vorteile von Tape zu Nutze,

Mehr

Betriebssysteme K_Kap11C: Diskquota, Raid

Betriebssysteme K_Kap11C: Diskquota, Raid Betriebssysteme K_Kap11C: Diskquota, Raid 1 Diskquota Mehrbenutzer-BS brauchen einen Mechanismus zur Einhaltung der Plattenkontingente (disk quotas) Quota-Tabelle enthält Kontingenteinträge aller Benutzer

Mehr

IT-Lösungsplattformen

IT-Lösungsplattformen IT-Lösungsplattformen - Server-Virtualisierung - Desktop-Virtualisierung - Herstellervergleiche - Microsoft Windows 2008 für KMU s Engineering engineering@arcon.ch ABACUS Kundentagung, 20.11.2008 1 Agenda

Mehr

16.11.2010 HOTEL ARTE, OLTEN

16.11.2010 HOTEL ARTE, OLTEN INFONET DAY 2010 16.11.2010 HOTEL ARTE, OLTEN STORAGE DESIGN 1 X 1 FÜR EXCHANGE 2010 WAGNER AG Martin Wälchli martin.waelchli@wagner.ch WAGNER AG Giuseppe Barbagallo giuseppe.barbagallo@wagner.ch Agenda

Mehr

Einfache Migration auf Collax Server mit der Acronis Backup Advanced Solution

Einfache Migration auf Collax Server mit der Acronis Backup Advanced Solution New Generation Data Protection Powered by Acronis AnyData Technology Einfache Migration auf Collax Server mit der Acronis Backup Advanced Solution Marco Ameres Senior Sales Engineer Übersicht Acronis Herausforderungen/Pain

Mehr

CA ARCserve Backup: Schutz von heterogenen NAS Umgebungen mit NDMP

CA ARCserve Backup: Schutz von heterogenen NAS Umgebungen mit NDMP WHITE PAPER: CA ARCserve Backup Network Data Management Protocol (NDMP) Network Attached Storage (NAS) Option: Integrierter Schutz für heterogene NAS-Umgebungen CA ARCserve Backup: Schutz von heterogenen

Mehr

Demartek. Bewertung der Multiprotokoll- Speicherplattform EMC Celerra NS20. Juli 2007. Einleitung. Zusammenfassung der Bewertung

Demartek. Bewertung der Multiprotokoll- Speicherplattform EMC Celerra NS20. Juli 2007. Einleitung. Zusammenfassung der Bewertung Bewertung der Multiprotokoll- Speicherplattform EMC Celerra NS20 Bericht erstellt im Auftrag der EMC Corporation Einleitung Die EMC Corporation beauftragte Demartek, eine praktische Bewertung der Celerra

Mehr

LÖSUNG IM ÜBERBLICK: CA ARCserve R16. Nutzung der Cloud für Business Continuity und Disaster Recovery

LÖSUNG IM ÜBERBLICK: CA ARCserve R16. Nutzung der Cloud für Business Continuity und Disaster Recovery Nutzung der Cloud für Business Continuity und Disaster Recovery Es gibt viele Gründe, warum Unternehmen heute gern Cloud Services in Anspruch nehmen ob es sich um eine private Cloud handelt, die von einem

Mehr

A506 Backup Software. IKT-Standard. Ausgabedatum: 2015-02-03. Version: 1.13. Ersetzt: 1.12

A506 Backup Software. IKT-Standard. Ausgabedatum: 2015-02-03. Version: 1.13. Ersetzt: 1.12 Eidgenössisches Finanzdepartement EFD Informatiksteuerungsorgan des Bundes ISB A506 Backup Software Klassifizierung: Typ: Nicht klassifiziert IKT-Standard Ausgabedatum: 2015-02-03 Version: 1.13 Status:

Mehr

Hyper-Converged - Weniger ist mehr!

Hyper-Converged - Weniger ist mehr! Hyper-Converged - Weniger ist mehr! oder wenn 2 > 3 ist! Name Position 1 Rasches Wachstum bei Hyper-Konvergenz Starke Marktprognosen für integrierte Systeme (Konvergent und Hyper-Konvergent) - 50 % jährlich

Mehr

Backupkonzepte. Th. Linke. Institut für Transfusionsmedizin Suhl ggmbh. Quellen: www.msxfaq.de; www.fantec.de

Backupkonzepte. Th. Linke. Institut für Transfusionsmedizin Suhl ggmbh. Quellen: www.msxfaq.de; www.fantec.de Backupkonzepte Th. Linke Quellen: www.msxfaq.de; www.fantec.de Backupkonzepte Agenda Faktoren und Probleme des Backups Konventionelle Backupverfahren Backup Offener Dateien Backupscripte mit Volumenschattenkopien

Mehr

Storage Virtualisierung

Storage Virtualisierung Storage Virtualisierung Einfach & Effektiv 1 Agenda Überblick Virtualisierung Storage Virtualisierung Nutzen für den Anwender D-Link IP SAN Lösungen für virtuelle Server Umgebungen Fragen 2 Virtualisierung

Mehr

EMC DATA DOMAIN BOOST FOR SYMANTEC BACKUP EXEC

EMC DATA DOMAIN BOOST FOR SYMANTEC BACKUP EXEC EMC DATA DOMAIN BOOST FOR SYMANTEC BACKUP EXEC Verbesserte Backup Performance mit erweiterter OpenStorage-Integration Überblick Schnellere Backups und bessere Ressourcenauslastung Verteilter Deduplizierungsprozess

Mehr

Storage as a Service im DataCenter

Storage as a Service im DataCenter Storage as a Service im DataCenter Agenda Definition Storage as a Service Storage as a Service und IT-Sicherheit Anwendungsmöglichkeiten und Architektur einer Storage as a Service Lösung Datensicherung

Mehr

... 64 bit Televaulting

... 64 bit Televaulting Next Generation Backup und Recovery Software... 64 bit Televaulting Kronberg, 07. Mai 2007 Asigra, der Technologieführer im Bereich agentless Backup und Recovery- für Unternehmen und Service Provider,

Mehr

Systemvoraussetzungen NovaBACKUP 17.1

Systemvoraussetzungen NovaBACKUP 17.1 Systemvoraussetzungen NovaBACKUP 17.1 Die Komplettlösung für Windows Server Backup Inhalt NovaBACKUP PC, Server & Business Essentials 3 Systemanforderungen 3 Unterstütze Systeme 3 NovaBACKUP Virtual Dashboard

Mehr

Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung

Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung Fritz Günther 17.03.2014 Folie 1 Agenda Was ist Virtualisierung Server- / Clientvirtualisierung

Mehr

Server-Virtualisierung mit Citrix XenServer und iscsi

Server-Virtualisierung mit Citrix XenServer und iscsi Server-Virtualisierung mit Citrix XenServer und iscsi Universität Hamburg Fachbereich Mathematik IT-Gruppe 1. März 2011 / ix CeBIT Forum 2011 Gliederung 1 Server-Virtualisierung mit Citrix XenServer Citrix

Mehr

Effizienter Einsatz von Flash-Technologien im Data Center

Effizienter Einsatz von Flash-Technologien im Data Center Effizienter Einsatz von Flash-Technologien im Data Center Herbert Bild Solution Marketing Manager Georg Mey Solutions Architect 1 Der Flash-Hype 2 Drei Gründe für den Hype um Flash: 1. Ungebremstes Datenwachstum

Mehr

... Einleitung... 15 1... Grundlagen der Virtualisierung... 23 2... Konzeption virtualisierter SAP-Systeme... 87

... Einleitung... 15 1... Grundlagen der Virtualisierung... 23 2... Konzeption virtualisierter SAP-Systeme... 87 ... Einleitung... 15 1... Grundlagen der Virtualisierung... 23 1.1... Einführung in die Virtualisierung... 23 1.2... Ursprünge der Virtualisierung... 25 1.2.1... Anfänge der Virtualisierung... 25 1.2.2...

Mehr

Arrow - Frühjahrs-Special

Arrow - Frühjahrs-Special Arrow ECS GmbH Industriestraße 10a 82256 Fürstenfeldbruck T +49 (0) 81 41 / 35 36-0 F +49 (0) 81 41 / 35 36-897 Arrow - Frühjahrs-Special Hardware- und Software-Pakete, die überzeugen info@arrowecs.de

Mehr

Kliniken des Landkreises Lörrach GmbH

Kliniken des Landkreises Lörrach GmbH Die Kliniken des ist ein medizinisches Dienstleistungsunternehmen, das eine bedarfsgerechte Versorgung mit Krankenhausleistungen auf hohem Niveau erbringt. Kliniken des Landkreises Lörrach Im Zuge der

Mehr

WICHTIGE GRÜNDE FÜR EMC FÜR DAS ORACLE-LIFECYCLE-MANAGEMENT

WICHTIGE GRÜNDE FÜR EMC FÜR DAS ORACLE-LIFECYCLE-MANAGEMENT WICHTIGE GRÜNDE FÜR EMC FÜR DAS ORACLE-LIFECYCLE-MANAGEMENT ÜBERBLICK ORACLE-LIFECYCLE-MANAGEMENT Flexibilität AppSync bietet in das Produkt integrierte Replikationstechnologien von Oracle und EMC, die

Mehr

Herzlich Willkommen zum Bechtle Webinar

Herzlich Willkommen zum Bechtle Webinar Herzlich Willkommen zum Bechtle Webinar EMC - Einsatzmöglichkeiten der Backup Appliance Data Domain Referent: Moderator: Roland Thieme, Technology Consultant für Backup and Recovery Systems Daniel Geißler,

Mehr

GESCHÄFTSKRITISCHE ORACLE- UMGEBUNGEN MIT VMAX 3

GESCHÄFTSKRITISCHE ORACLE- UMGEBUNGEN MIT VMAX 3 GESCHÄFTSKRITISCHE ORACLE- UMGEBUNGEN MIT VMAX 3 GESCHÄFTSKRITISCHE GRUNDLAGEN Leistungsstark Hybridspeicher mit flashoptimierten Performance-Service-Levels nach Maßfür geschäftskritische Oracle Workloads;

Mehr

Claus PFLEGER Systems Engineer CEMEA claus.pfleger@veeam.com

Claus PFLEGER Systems Engineer CEMEA claus.pfleger@veeam.com Claus PFLEGER Systems Engineer CEMEA claus.pfleger@veeam.com Blickwinkel Abteilungsleiter & Vorgesetzte Sicherungslösung bewährt und passend für Virtualisierung? Backupkosten? Kostenentwicklung? Gegenwert

Mehr

Oracle 10g und SQL Server 2005 ein Vergleich. Thomas Wächtler 39221

Oracle 10g und SQL Server 2005 ein Vergleich. Thomas Wächtler 39221 Oracle 10g und SQL Server 2005 ein Vergleich Thomas Wächtler 39221 Inhalt 1. Einführung 2. Architektur SQL Server 2005 1. SQLOS 2. Relational Engine 3. Protocol Layer 3. Services 1. Replication 2. Reporting

Mehr

CAD Virtualisierung. Celos CAD Virtualisierung

CAD Virtualisierung. Celos CAD Virtualisierung CAD Virtualisierung Celos Hosting Services Celos Netzwerk + Security Celos Server + Storage Virtualisierung Celos Desktop Virtualisierung Celos CAD Virtualisierung Celos Consulting Celos Managed Services

Mehr

Magirus der IT-Infrastruktur und -Lösungsanbieter. Herzlich willkommen! 17.4. München 26.4. Düsseldorf. Seite 1. 03.5. Frankfurt

Magirus der IT-Infrastruktur und -Lösungsanbieter. Herzlich willkommen! 17.4. München 26.4. Düsseldorf. Seite 1. 03.5. Frankfurt Herzlich willkommen! 17.4. München 26.4. Düsseldorf Seite 1 03.5. Frankfurt Optimierung von IT-Infrastrukturen durch Serverund Storage-Virtualisierung IT-Infrastruktur- und -Lösungsanbieter Produkte, Services

Mehr

Symantec Backup Exec 2012

Symantec Backup Exec 2012 Better Backup For All Symantec Alexander Bode Principal Presales Consultant Agenda 1 Heutige IT Herausforderungen 2 Einheitlicher Schutz für Physische und Virtuelle Systeme 3 Ein Backup, Flexible Restores

Mehr

Marco Denzler Bereichsleiter IT

Marco Denzler Bereichsleiter IT «Flexibles Datacenter: 100% Verfügbarkeit und null Datenverlust wachsende Ansprüche im KMU» Marco Denzler Bereichsleiter IT Ansprüche und Komplexität Wird Ihr Datacenter Ihren Ansprüchen noch gerecht?

Mehr

Neue einheitliche Technologie repräsentiert FalconStors ersten Schritt hin zu Plattform-basiertem Datenmanagement

Neue einheitliche Technologie repräsentiert FalconStors ersten Schritt hin zu Plattform-basiertem Datenmanagement FalconStor stellt Optimized Backup and Deduplication Solution 8.0 vor Neue einheitliche Technologie repräsentiert FalconStors ersten Schritt hin zu Plattform-basiertem Datenmanagement München, 18. Februar

Mehr

Hardware- und Software-Anforderungen IBeeS.ERP

Hardware- und Software-Anforderungen IBeeS.ERP Hardware- und Software-Anforderungen IBeeS.ERP IBeeS GmbH Stand 08.2015 www.ibees.de Seite 1 von 8 Inhalt 1 Hardware-Anforderungen für eine IBeeS.ERP - Applikation... 3 1.1 Server... 3 1.1.1 Allgemeines

Mehr

IT Systeme / Enterprise Storage Solutions Drobo B1200i 12-Slot 24TB Application- Optimized Storage für den Mittelstand IT

IT Systeme / Enterprise Storage Solutions Drobo B1200i 12-Slot 24TB Application- Optimized Storage für den Mittelstand IT IT Systeme / Enterprise Storage Solutions Drobo B1200i 12-Slot 24TB Application- Optimized Storage für den Mittelstand IT Seite 1 / 5 Drobo B1200i Application-Optimized Storage für den Mittelstand IT Connectivity:

Mehr

Hitachi File & Content Services: Hitachi NAS Plattform. Uwe Angst NAS Business Manager

Hitachi File & Content Services: Hitachi NAS Plattform. Uwe Angst NAS Business Manager Hitachi File & Content Services: Hitachi NAS Plattform Uwe Angst NAS Business Manager 1 Hitachi, Ltd. (NYSE:HIT/TSE:6501) Einer der One of the weltgrössten integrierten Elektronikkonzerne Gegründet 1910

Mehr

IT Storage Cluster Lösung

IT Storage Cluster Lösung @ EDV - Solution IT Storage Cluster Lösung Leistbar, Hochverfügbar, erprobtes System, Hersteller unabhängig @ EDV - Solution Kontakt Tel.: +43 (0)7612 / 62208-0 Fax: +43 (0)7612 / 62208-15 4810 Gmunden

Mehr

Top Neuerungen in Windows Server 2012 R2

Top Neuerungen in Windows Server 2012 R2 Top Neuerungen in Windows Server 2012 R2 Windows Server 2012 R2 bietet herausragende technische Neuerungen für unterschiedlichste Einsatzbereiche des Windows Server Systems. Außerdem werden viele der mit

Mehr

und 2003 Standard und Premium Editionen.

und 2003 Standard und Premium Editionen. Business Server Umfassende Backup- und Wiederherstellungslösung für wachsende Kleinunternehmen Überblick Symantec Backup Exec 2010 für Windows Small Business Server ist die ideale Datensicherungslösung

Mehr