Storage Guide. Grundlagen Technologien Lösungen. Ausgabe 26 Juni Backup für Big Data. Mehr Effizienz für den Storage

Größe: px
Ab Seite anzeigen:

Download "Storage Guide. Grundlagen Technologien Lösungen. Ausgabe 26 Juni 2012. Backup für Big Data. Mehr Effizienz für den Storage"

Transkript

1 Grundlagen Technologien Lösungen Storage Guide Ausgabe 26 Juni 2012 Backup für Big Data Mehr Effizienz für den Storage Flexible Sicherungen in Mischumgebungen Scale-out-NAS für extreme Datenmengen Neue Technologien für schnelleres Backup Highend-Cache für Datenbanken Unified Storage im Cluster Kombinationen aus Diskund Tape-Devices

2 Zum Thema Speichereffizienz Innen größer als außen Die Storage-Systeme von NetApp Man muss nicht alles speichern, was man speichern muss. Will heißen, dass Daten, die doppelt und dreifach gespeichert wurden, nur Speicherplatz verschwenden. Die Software von NetApp dedupliziert diese Daten und zusammen mit der überaus sparsamen Snapshot-Technologie sowie einigen andere cleveren Funktionen können Sie Ihren Speicherbedarf je nach Anwendung und Einsatzbereich um bis zu 80% reduzieren. Das spart Platz, Geld und Energie NetApp. Alle Rechte vorbehalten. Änderungen vorbehalten. NetApp, das NetApp Logo und Go further, faster sind Marken oder eingetragene Marken von NetApp Inc. in den USA und/oder anderen Ländern. Alle anderen Marken oder Produkte sind Marken oder eingetragene Marken der jeweiligen Rechtsinhaber.

3 Editorial Ist die Größe entscheidend? Ein Thema, das wahrscheinlich schon für unterschiedlichste Bereiche diskutiert wurde! Beim aktuellen Hype um Big Data interessiert den Betrachter erst einmal: Was bedeutet groß im Zusammenhang mit Daten? Habe ich Big Data und brauche ich in diesem Zusammenhang neue, spezielle Lösungsansätze? Big Data bezeichnet außergewöhnlich große Datenmengen, die in Bezug auf die Haltung, Sicherung, Verarbeitung, Analyse und Bereitstellung eine besondere Herausforderung darstellen. Dazu kommt, dass häufig unterschiedlichste Datentypen und -quellen zusammenkommen und analysiert werden müssen. Probleme entstehen hierbei grundsätzlich in den verschiedensten Elementen der IT-Infrastruktur, wie auch bei der Nutzung der Informationen und den damit verbundenen Prozessen und Ressourcen. Habe ich Big Data oder welches Volumen ist in diesem Zusammenhang als groß zu bewerten? In vielen Publikationen schwanken die Angaben von Terabytes bis über Zettabytes. Der Grund hierfür ist, dass nicht eine nominell definierbare Größe Big Data klassifiziert, sondern die Herausforderung, die mit einem steigenden Datenvolumen beginnt. Oder mit anderen Worten: Es kommt darauf an, ob das hohe Datenvolumen für die eigenen Anforderungen ein Problem darstellt, das mit herkömmlichen Ansätzen nicht zu lösen ist. Bei den bisherigen Wachstumsraten und den Prognosen für die kommenden Jahre könnte man jetzt davon ausgehen, dass sich die meisten Unternehmen früher oder später in einer Big Data -Situation befinden. Tatsächlich lassen sich aber die meisten Herausforderungen über die Kombination von jeweils aktueller Technologie mit einem angepassten Datenmanagement bewältigen. Wenn diese Möglichkeit nicht mehr ausreicht, um den Anspruch an Verfügbarkeit und Performance der Informationsverarbeitung zu erfüllen, kommen spezielle Technologien ins Spiel, die unter dem Begriff Big Data zusammengefasst sind. Somit ist nicht nur die Größe des Datenvolumens entscheidend, sondern auch die Art der Information, die Relevanz und der Anspruch an die Verfügbarkeit der Informationen. Um die einleitende Frage zu beantworten: Die Größe allein ist nicht entscheidend, es kommt auf die speziellen Rahmenparameter und Anforderungen an! Bijan Taleghani Leiter Produkt Marketing und Business Development TIM AG Ihr Feedback ist uns wichtig: Wie gefällt Ihnen der StorageGuide? Wird der Inhalt nach Ihrer Meinung informativ und kompetent behandelt? Gibt es ein Thema, über das Sie in der nächsten Ausgabe gerne lesen möchten? Ob Kritik oder Lob, wir freuen uns auf Ihre Anregungen! Stefanie Blank, TIM AG, , Inhalt Konsolidierte Datensicherung Mit der neuen Funktion OnePass führt CommVault in Simpana die Module für Backup, Archivierung und Reporting zusammen. Intelligentes Storage-Management Mit Dell Compellent lässt sich eine weitgehend automatische Storage-Verwaltung realisieren. Problemlöser CA ARCserve hält die Werkzeuge bereit, um auch in heterogenen Umgebungen alle Sicherungs aufgaben bewältigen zu können. Big Data im Griff EMC Isilon hat sich auf die Entwicklung von Storage-Systemen speziell für die Verarbeitung von extrem großen Datenmengen spezialisiert. Schnelleres Backup Symantec NetBackup 7.5 enthält neue Funk tionen, um die Sicherungsläufe zu beschleu nigen und zu vereinfachen. Performance-Boost per Cache Mit VFCache präsentiert EMC eine Lösung, um Anwendungen, die nach hohen IOPS-Raten verlangen, einen zusätzlichen Schub zu geben. Vereinfachte Skalierung Im Cluster-Mode von Data ONTAP 8.1 virtualisiert NetApp die Storage-Hardware und richtet einen einheitlichen Global Namespace ein. Disk und Tape im Zusammenspiel Quantum demonstriert, dass Tapes noch lange nicht tot sind, sondern sich mit Disk-basierten Systemen sinnvoll ergänzen. Impressum Eine Publikation der TIM AG Idee und Konzept: TIM AG, Schoßbergstr. 21, Wiesbaden Projektleitung: TIM AG, Stefanie Blank, Redaktion: twins ad, Roland Freist Design, Layout und Herstellung: twins ad, Full-Service Werbeagentur, Schwanthalerstr. 91, München, Die verwendeten Produktbezeichnungen und Markennamen sind eingetragene Warenzeichen der jeweiligen Hersteller.

4 CommVault Konsolidierte Datenverwaltung Im Zeitalter von Big Data sind neue Vorgehensweisen beim Sichern und Archivieren gefragt. CommVault stellt mit OnePass eine clevere Lösung bereit. Die Datenmenge, die weltweit erhoben, digital gespeichert und ausgewertet wird, steigt exponentiell an. Das Marktforschungsinstitut Gartner beziffert das jährliche Wachstum auf bis zu 80 Prozent, wozu vor allem einfache, unstrukturierte Anwenderdaten beitragen. Aber auch maschinell erzeugte Daten wie etwa die Protokolle von Telekommunikationsfirmen, die Aufzeichnungen zu den getätigten Finanztransaktionen an den großen Börsenplätzen oder die Messergebnisse von Wetterstationen nehmen rasant zu. Parallel dazu kämpfen auch Webdienste, Suchmaschinen, Social Networks, Buchungssysteme oder Webshops mit den riesigen Datenvolumen, die sich auf ihren Servern ansammeln. Für die IT-Abteilungen ergeben sich daraus neue Herausforderungen, da die herkömmlichen Backup-Anwendungen mit der Verarbeitung dieser Datenmengen oftmals überfordert sind. Zum einen fehlen die Ressourcen, um diese obwohl diese Module perfekt aufeinander abgestimmt sind, sodass keine Reibungsverluste entstehen, kann es bei der Bearbeitung von extrem großen Datenmengen zu den oben genannten Problemen kommen. CommVault hat daher die aktuelle Version 9 von Simpana mit einer Funktion ausgestattet, die den Umgang mit Big Data erheblich vereinfacht und beschleunigt. Diese Funktion namens OnePass ist ein integraler Bestandteil von Simpana und versetzt den Administrator in die Lage, seine Service Level Agreements (SLAs) trotz steigender Datenvolumina einzuhalten. Aus drei mach eins Das steckt dahinter: Die Simpana-Module für das Backup, die Archivierung und das Reporting verwenden jeweils eigene Agenten. Diese greifen zwar im Backup auf die gleiche Infrastruktur zurück, man kann sie also über das Gleichzeitig sinkt auch der administrative Aufwand. Auf diese Weise lassen sich mit den vorhandenen Systemen auch größere Datenmengen verarbeiten. Bei großen Datenvolumen wird jedes Kopieren oder Verschieben von Daten zu einem zeitraubenden Vorgang. Um die Datenbewegungen daher so gering wie möglich zu halten, führt OnePass ausschließlich inkrementelle File- Backups durch. Nach einer ersten Vollsicherung werden immer nur noch die Daten gesichert, die seit dem letzten inkrementellen Backup neu hinzugekommen sind oder sich verändert haben. Erst im Nachhinein führt Simpana dann synthetische Vollbackups durch, setzt also die in krementellen Backup-Sätze zu Vollsicherungen zusammen. Zusammenfassend lässt sich OnePass also als eine Funktion beschreiben, die die wichtigsten Sicherungsvorgänge zusammenfasst und damit verkürzt sowie die Nachbearbeitung der Daten nachgelagert in die Infrastruktur von Simpana verlegt. Der Kunde hat die Wahl Durch den kombinierten Prozess wird die Dauer für Backup, Archivierung und Reporting im Vergleich zu traditionellen Methoden erheblich verkürzt. Massen an unstrukturierten Daten zu analysieren und zu indexieren. Zum anderen sind aber auch die Backup-Zeitfenster zu klein, um die Daten zu sichern und zu archivieren. Um diese Probleme adressieren und gezielt Lösungsmöglichkeiten entwickeln zu können, werden große, unstrukturierte Datenmengen im Tera-, Petaoder Exabyte-Bereich mittlerweile unter dem Begriff Big Data zusammengefasst. Mit Simpana bietet CommVault eine Lösung an, die auf einer Plattform Module unter anderem für die Datenanalyse, das Backup, die Archivierung, das Storage Ressource Management und die Deduplizierung vereint. Doch gleiche Job-Management, die gleiche grafische Oberfläche und das gleiche Reporting verwalten. Trotzdem sind es drei verschiedene Agenten, die ihre Arbeit unabhängig voneinander erledigten. Mit OnePass hat CommVault die Integration der einzelnen Module nun noch einen Schritt weitergeführt und die Agenten für Backup, Archivierung und Reporting zu einem zusammengefasst. Das hat den Vorteil, dass die drei Vorgänge von einem gemeinsamen Prozess erledigt werden und nur noch eine Scan-Phase erforderlich ist. Damit verkürzt sich die Ausführung um mehr als 50 Prozent und nimmt zudem weniger Hardware-Ressourcen in Anspruch. Neben OnePass sind in Simpana aber auch nach wie vor die spezialisierten Agenten verfügbar. Der Kunde hat also die Wahl, ob er OnePass einsetzen will oder die Einzel-Agenten. Auf diese Weise ist er flexibel und kann beispielsweise die Backup-Funktion von Simpana nutzen und die Archivierung mit einem anderen Produkt erledigen. Die Flexibilität bleibt auf diese Weise aber auch in anderer Hinsicht gewahrt. Wenn Backup und Archivierung über den Agenten von OnePass durchgeführt werden, landen alle Daten zunächst im Simpana ContentStore, einem virtuellen Datenspeicher. Erst danach werden die zur Archivierung bestimmten Daten regel gesteuert verschoben und im Zuge eines Stubbing-Prozesses durch Verweise auf die im Archiv gespeicherten Kopien der Datensätze ersetzt. Es ist jedoch technisch nicht möglich, Backup und Archivierung von vornherein auf unterschiedliche Speicher-Subsysteme auszuführen, also beispielsweise aktuelle Daten für schnelle Restore-Vorgänge auf Festplatte zu sichern und gleichzeitig weniger oft benötigte Daten für eine längerfristige Aufbewahrung auf Tape zu verschieben. Das lässt sich jedoch nach wie vor mit den Einzel-Agenten organisieren. Welche Methode im Einzelfall jeweils vorteilhafter ist, wird im Beratungsgespräch beim Kunden geklärt. Weitere Informationen: TIM AG Tel

5 DELL Intelligentes Storage-Management Mit den Compellent-Systemen bietet Dell besonders effiziente und einfach zu verwaltende professionelle Storage-Lösungen an. Die aktuelle Situation in der IT-Landschaft ist gekennzeichnet durch drei große Herausforderungen: ein rasantes, oftmals unvorhergesehenes Datenwachstum, eine immer raschere Abfolge von neuen Anforderungen an die IT- Abteilungen und Massenspeicher-Strukturen, die sich nur schwer an die veränderten Bedingungen anpassen lassen. Vor allem der Siegeszug der Mobilgeräte bereitet den Administratoren Kopfschmerzen: Die Anwender verlangen zunehmend nach einem zeit- und ortsunabhängigen Zugriff auf die Unternehmensdaten, und zwar von allen ihren Geräten aus. Dazu zählen neben den klassischen Notebooks zunehmend auch Tablet-Computer und Smartphones. Gleichzeitig ist ein immer größerer Aufwand erforderlich, um die ständig wachsenden Datenvolumen in den Unternehmen zu verwalten, zu pflegen und vor Verlust und unberechtigten Zugriffen zu schützen. Da die Budgets der IT- Abteilungen mit diesen Entwicklungen nicht Schritt halten, sind neue Lösungen gefragt, die den Administrator entlasten und das Datenmanagement stärker automatisieren. Dabei sollten sie natürlich auch mit den enormen Datenbeständen der heutigen Zeit umgehen können. Mehr Effizienz heißt das Schlagwort, mit dem sich die Anforderungen an ein modernes Storage-System zusammenfassen lassen. Das hat sich auch Compellent auf die Fahnen geschrieben, eine Firma, die seit rund zwei Jahren zu Dell gehört. Die Compellent-Technologie Compellent ist heute eine Storage-Marke von Dell. Die Firma vertreibt unter dieser Bezeichnung das Storage Center, ein SANbasiertes Storage-System. Es verwendet die von Compellent entwickelte Fluid-Data-Architektur, mit der die gespeicherten Daten auf Blockebene aktiv und intelligent verwaltet werden. Die Compellent-Systeme arbeiten mit sogenannten Pages, in denen sie die Datenblöcke zusammenfassen. Die Größe dieser Pages lässt sich zwischen 512 KByte und 4 MByte konfigurieren, der Standardwert sind 2 MByte. Zu jeder dieser Pages werden Metadaten erfasst, in denen unter anderem festgehalten ist, zu welchem Volume die Page gehört, auf welchem RAID- Level sie aktuell liegt und wann die Daten das letzte Mal angefordert wurden. Diese Metadaten ermöglichen es, den Storage zu virtualisieren. Dabei wird die gesamte Speicherkapazität zu einem großen Pool zusammengefasst. Wenn in einem SAN etwa 30 Terabyte SATA-Platten und 10 Terabyte SSDs vorhanden sind, stellt Compellent das als einen Pool von 40 Terabyte Storage dar. Der Clou ist dabei, dass das System über die Metadaten Dell Fluid Data - integriertes, intelligentes Management auf Blockebene und Automati sierung zur Verwaltung von Unternehmensdaten und zur Senkung der Gesamtspeicherkosten. weiß, wie sich die Speicherkapazität zusammensetzt und die Daten automatisch verteilt. Ein Beispiel: Eine Firma betreibt einen Webshop mit einer umfangreichen Datenbank- Anwendung. In dieser Datenbank liegen Stammdaten, die verhältnismäßig häufig angefordert werden, und Orderdaten, die mehrere Jahre zurückreichen. Die älteren Orderdaten werden lediglich noch aus rechtlichen Gründen aufbewahrt, aufgerufen werden sie nicht mehr. Ein Compellent-System würde nun feststellen, dass auf die Stammdaten sehr oft zugegriffen wird, und sie daher automatisch auf den SSD-Storage legen. Die seltener angefragten Orderdaten hingegen würde es auf die SATA- Platten verschieben. Ein Storage Center von Compellent beherrscht also ein klassisches Tiering. Doch im Unterschied zu Produkten anderer Hersteller erfolgt die Zuordnung der Daten zu den einzelnen Tier-Leveln automatisch. Es ist nicht einmal erforderlich, entsprechende Regeln zu definieren. Kommen neue Daten hinzu, werden sie zunächst auf das schnellste vorhandene Tier geschrieben. Über die Metadaten ermittelt das System dann, wie hoch die Nachfrage nach den einzelnen Pages ist und verschiebt sie auf die passenden Tiers. Da die Pages mit einem Volumen zwischen 512 KByte und 4 MByte verhältnismäßig klein ausfallen, ist gewährleistet, dass der vorhandene Storage mit optimaler Effizienz ausgenutzt wird. Der Administrator muss in diesen Vorgang nicht eingreifen, alles geschieht automatisch. Auch wenn zusätzliche Festplatten hinzugefügt werden, muss er nichts weiter tun das System nimmt sie in seinen Pool auf und reorganisiert selbstständig die Daten. Es gibt keine RAID-Verteilung wie bei anderen Systemen, und der Administrator muss auch keine Disk-Gruppen anlegen. Compellent-Systeme sind daher nicht nur besonders effizient, sondern auch besonders einfach zu verwalten. Neben dem automatischen Tiering beherrschen die Compellent-Systeme noch weitere Techniken zur optimalen Auslastung des Storage. Dazu gehören Thin Provisioning, Snapshots, die lediglich die Änderungen seit dem letzten Snapshot festhalten, sowie Thin Replication zum Kopieren der Snapshots auf Remote-Systeme. Alle zusammen tragen dazu bei, dass die Storage-Kosten gesenkt werden, während gleichzeitig der Verwaltungsaufwand so gering wie möglich ausfällt. Dell vom Reseller zum Hersteller Dell ist in den letzten Jahren vom Storage- Reseller zum Storage-Hersteller geworden. Gleichzeitig ist die Firma aber auch der drittgrößte PC-Hersteller der Welt und hat darüber hinaus auch verschiedene Server-Linien, Netzwerk-Zubehör, wie beispielsweise Switches und ein großes Repertoire an Peripherie-Geräten, wie etwa Drucker im Programm. Dell ist damit in der Lage, seinen Kunden eine komplette, aufeinander abgestimmte Infrastruktur zur Verfügung zu stellen. Da die Produkte aus dem eigenen Haus auf eine reibungslose Zusammenarbeit getestet werden, die Storage-Systeme etwa zusammen mit Servern und Switches, hat der Kunde die Gewähr, dass die Aufbau- und Konfigurationsphase sehr kurz ausfällt. Zudem kann er auf einen einheitlichen Support-Kanal zurück greifen auch das bringt mehr Effizienz in eine IT-Abteilung. Weitere Informationen: TIM AG Tel xx 4 5yy

6 CA Datensicherung in heterogenen, virtualisierten Infrastrukturen Mit den Produkten aus der CA ARCserve-Familie erhält der Kunde die Werkzeuge, um auf nahezu jede Herausforderung bei der Sicherung seiner Daten eine Antwort zu finden. Die Virtualisierung von Servern und Applikationen ist bereits seit mehreren Jahren ein erprobtes Mittel zur Effizienzsteigerung von Rechenzentren. Ein physischer Host kann mehrere virtuelle Maschinen aufnehmen, was zu einer besseren Auslastung der CPU führt, den Platzund Energiebedarf senkt und die Administratoren entlastet. Doch längst nicht alle Server sind virtualisiert. Laut den Daten der Marktforschungssite v-index.com liegt der Virtualisierungsgrad in Deutschland nur bei etwa 45 Prozent, wobei auf einen Host durchschnittlich sechs bis sieben Maschinen kommen. Parallel dazu existieren in nahezu allen Unternehmen dedizierte physische Server, bei denen eine Virtualisierung erst noch geplant ist oder die sich wegen Inkompatibilitäten oder hohem Ressourcenbedarf nicht virtualisieren lassen. Zu der letztgenannten Gruppe gehören vor allem große, unternehmenskritische Datenbanken und ERP-Systeme wie Oracle oder SAP. Neben dem Mix aus virtualisierten und physischen Servern ist für die meisten Rechenzentren eine gewachsene, heterogene IT-Infrastruktur mit unterschiedlichen Betriebs systemen und Applikationen mehrerer Hersteller typisch. Von dieser zentralen Stelle aus wird oft auch gleich die IT kleinerer Vertriebsniederlassungen betreut, meist mit einer Mischung aus Remote- Wartung und regelmäßigen Besuchen eines Technikers. Üblicherweise finden von diesen Zweigstellen aus vor allem Zugriffe auf die zentralen Datenbanken am Firmensitz statt, der Anteil lokal gespeicherter Daten ist eher gering. Meist handelt es sich sowohl bei den Servern wie auch bei den Clients um eine reine Windows-Umgebung. Virtualisierung beeinflusst Datensicherung Eine solche IT-Landschaft stellt die IT- Abteilung bei der Datensicherung vor einige Herausforderungen. Vor allem die Virtualisierung trägt dazu bei, dass Backup- und Restore- Vorgänge komplizierter werden. So ist zumeist gewünscht, dass nicht nur ein kompletter Host inklusive sämtlicher virtuellen Maschinen gesichert werden kann. Daneben soll es auch die Möglichkeit geben, gezielt einzelne Maschinen zu sichern und sie im Disaster-Recovery-Fall auch genauso granular wiederherzustellen. Und mehr noch: Oftmals geht es lediglich um eine einzige Datei, die versehentlich gelöscht wurde Microsoft Exchange geht es um einzelne - Nachrichten, die mitsamt Anhängen wiederhergestellt werden müssen, bei Datenbanken sind es Datensätze. Eine Backup-Anwendung sollte also auch einen Applikationsschutz bieten, der es ermöglicht, gezielt die Objekte der genannten Anwendungen zurückzuholen und das eben auch in virtuellen Umgebungen. Um die Daten der entfernten Außenstellen zu sichern, bietet sich eine Replikation auf die Server im Rechenzentrum der Unternehmenszentrale an. Auf diese Weise ist jederzeit eine Sicherungskopie der Daten verfügbar, ohne dass in den einzelnen Niederlassungen Manpower für die Verwaltung eingesetzt werden müsste. Wünschenswert ist natürlich, dass sich der Replikationsvorgang vom Rechenzentrum in der Unternehmenszentrale steuern lässt, sodass vor Ort keine Mitarbeiter dafür abgestellt werden müssen. CA ARCserve als umfassende Backup-Lösung CA ARCserve macht flexibel: Der Anwender kann Backups in der Außenstelle durchführen und die Daten in eine DR-Lokation replizieren oder die Daten zunächst in die Zentrale replizieren und dort konsolidiert sichern. und nun rekonstruiert werden soll. Dafür den Restore der gesamten virtuellen Maschine oder gar des Hosts einzuleiten, wäre äußerst ineffizient und viel zu zeitaufwendig. Stattdessen soll es möglich sein, auch einzelne Files aus virtuellen Umgebungen im Backup-Satz gezielt anzusteuern und an die alte Stelle zu kopieren. Doch nicht immer sind es Dateien, für die ein Restore benötigt wird. Bei Applikationen wie Mit den Produkten aus der ARCserve- Familie stellt CA Technologies eines der umfangreichsten Backup-Pakete auf dem Markt bereit. In der aktuellen Version r16 besteht es aus den Komponenten CA ARCserve Backup, CA ARC serve D2D, CA ARCserve Replication, CA ARCserve High Availability sowie den App- Erweiterungen CA ARCserve Central Protection Manager, CA ARCserve Central Virtual Standby, CA ARCserve Central Host-Based VM Backup und CA ARCserve Central Reporting. Mit ihren unterschiedlichen Ansätzen bei der Datensicherung bei gleichzeitiger Integration in eine größere Produktfamilie lassen sich damit praktisch alle Sicherungsaufgaben im Unternehmen lösen. Das Flaggschiff der ARCserve-Familie, CA ARCserve Backup, arbeitet sowohl mit physischen wie mit virtualisierten Servern zusammen und zeigt sich dabei äußerst flexibel: Sie unterstützt VMware, Microsoft Hyper-V und Citrix XenServer und kann einzelne virtuelle Maschinen genauso sichern wie den gesamten Server. Beim Restore ist es dann möglich, physische Maschinen auch in einer virtuellen Umgebung zu rekonstruieren. Und ganz gleich, ob physischer oder virtueller Server: Immer ist ein Restore einzelner Dateien möglich, ohne dass

7 C:\ D:\ E:\ Sicherungsziel (Lokaler Datenträger / Externer Datenträger / Netzwerkfreigabe) Jedes Volume wird in Blöcke unterteilt und gesichert. Jeder Block wird daraufhin überwacht, und nur Blöcke, die sich verändern, werden inkrementell gesichert. Element 3 (15 Minuten) (15 Minuten) (15 Minuten) Element 2 Übergeordnete Sicherung (vollständig) n Sicherung von untergeordnetem Element (inkrementell) Von untergeordnetem Element 1 Element Element 3 5 Element 2 (inkrementell) Element 3 (inkrementell) Element 1 Durch die Wiederherstellung werden alle Sicherungsblöcke unter Verwendung der neuesten Version wiederhergestellt. 6 Von übergeordnetem Element 7 Sicherung übergeordneter Elemente (vollständig) n Zusammengeführt in übergeordnetes Sicherung von untergeordnetem Element Element (inkrementell) Wenn das Limit auf 3 zu speichernde inkrementelle Sicherungen festgelegt ist Element 2 (inkrementell) Element 3 (inkrementell) Neue Sicherung übergeordneter Elemente (Überg. Element + unterg. Element 1) n Nächstes zusammenzuführendes untergeordnetes Element Element 2 Sicherung von untergeordnetem (inkrementell) Element 3 (inkrementell) Element 4 (inkrementell) Vergleich zur Überprüfung Jeder Block mit der Quelle zunächst die gesamte virtuelle Maschine wiederhergestellt werden müsste. Mit dem in das Dashboard der Software integrierten Storage Resource Management (SRM) kann sich der Administrator jederzeit einen Überblick darüber verschaffen, wie der aktuelle Stand der laufenden und geplanten Backup-Läufe ist. Er sieht aber auch, ob Fehlermeldungen der Hardware vorliegen, zu welchem Zeitpunkt das letzte Backup durchgeführt wurde und mit welchem Ergebnis es beendet wurde. CA ARCserve Backup bringt eine kosten frei integrierte Deduplizierungsfunktion mit, über die sich das Volumen der Backup-Sätze deutlich reduzieren lässt. Die Software beherrscht zudem eine Verschlüsselung, über die sich die Daten auf den erzeugten Tapes vor fremden Zugriffen schützen lassen. Ein integriertes Schüsselmanagement sorgt dafür, dass sich der Administrator um die Kennwörter für die einzelnen Bänder nicht zu kümmern braucht. Er muss lediglich ein Master-Passwort eingeben, um Zugriff auf die einzelnen Tapes zu bekommen. Snapshots von Remote-Standorten Eine noch verhältnismäßig neue Komponente in CA ARCserve ist ARCserve D2D, was für Disk to Disk steht. Die Software sichert also ausschließlich auf Festplatten. Nach einem einmaligen Vollbackup legt sie in der Folge blockbasierte inkrementelle Sicherungen als Snapshots an. Dank der von CA patentierten I 2 -Techno logie kann das alle 15 Minuten erfolgen, um auf diese Weise Datenverluste so gering wie möglich zu halten. Der Administrator kann die einzelnen Sicherungen gezielt anwählen, um so einen bestimmten System zustand wiederherzustellen. Beim Ausfall eines kompletten Servers lässt sich CA ARCserve D2D für ein Bare-Metal-Recovery einsetzen, das Programm kann also den kompletten Festplatten inhalt auf einem anderen Rechner im Originalzustand rekonstruieren. Die Hardware muss dabei nicht einmal identisch zu der des ausgefallenen Servers sein. Auf der anderen Seite ist es aber auch möglich, lediglich einzelne Volumes oder auch Dateien zurückzukopieren. Und: CA ARCserve D2D bietet eine direkte Unterstützung für Microsoft Exchange und SQL Server. Das bedeutet, dass der Administrator in der Lage ist, gezielt einzelne Elemente wie etwa s aus Exchange wiederherzustellen, ohne dass die gesamte Datenbank der Anwendung rekonstruiert werden müsste. CA ARCserve D2D Quelle eignet sich vor allem für Außenstellen, die über keine eigene IT-Abteilung verfügen und ausschließlich mit Windows-basierten Computern arbeiten. Da dort oftmals nur wenige Daten produziert werden, können sie mit einer inkrementellen Sicherung auch sehr schnell über ein schmalbandiges WAN ins zentrale Rechenzentrum übertragen werden. Diese Datenübertragung lässt sich mit ARCserve D2D sogar verschlüsseln, sodass Außenstehende die Daten nicht einsehen können. Sollte einmal ein Restore notwendig sein, lassen sich die Daten auf dem gleichen Weg wieder zurück in die Außenstelle transferieren. Zur Fernsteuerung der Sicherungen an den Remote-Standorten bietet CA Technologies ARCserve Central Protection Manager an. Mit dieser Erweiterung kann der Anwender alle seine ARCserve D2D-Installationen von einer einheitlichen Konsole aus verwalten. D2D selbst lässt sich lediglich an dem Rechner steuern, auf dem es eingerichtet ist. Erst mit dem Central Protection Manager eröffnet sich dem Administrator die Möglichkeit, ARCserve D2D parallel auf mehreren Servern zu installieren, Backup-Policies einzurichten und zuzuweisen, die Sicherungsläufe zu überwachen, einen Restore auszulösen und Programm-Updates einzuspielen. Im Zusammenspiel mit CA ARCserve Backup wiederum lässt sich mit ARCserve D2D eine Disk to Disk to Tape-Strategie umsetzen: Der Administrator kann länger zurückliegende C:\ Zuletzt gesicherte Blöcke Die I 2 -Technologie erstellt unbegrenzte, inkrementelle Backups auf Basis von Windows VSS. Einzelne Widerherstellungspunkte werden automatisch zusammengefasst, wodurch vollständige Backups nicht mehr notwendig sind. Die Vorteile inkrementeller Sicherungen bleiben erhalten. Sicherungen von CA ARCserve D2D, die nur noch selten oder überhaupt nicht mehr angefordert werden, in den üblichen Sicherungsprozess aufnehmen und auf Tape auslagern. Wenn in einer Außenstelle mehrere Server gesichert werden müssen, ist es allerdings oft sinnvoller, anstatt ARCserve D2D das umfassendere ARCserve Replication einzusetzen. Es basiert auf dem gleichen Funktionsprinzip wie D2D, legt also in regelmäßigen Abständen Snapshots des Systems an und repliziert sie auf einen Remote-Server. Neben Windows- unterstützt es jedoch auch Linux- und Unix-Betriebssysteme und natürlich ebenfalls VMware, Hyper-V und Citrix Xen für die Virtualisierung. Der Administrator kann auswählen zwischen einer kontinuierlichen, einer geplanten und Ad-hoc- Replikation, etwa um vor der Installation eines Updates noch einmal den alten Systemzustand einzufangen. Fazit Block-Sicherungs-Image aktualisieren (falls erforderlich) Die Komponenten von CA ARCserve sind so aufeinander abgestimmt, dass IT-Abteilungen mit ihnen nahezu jede Herausforderung in Sachen Datensicherung meistern können. Sie qualifizieren sich damit auch für äußerst heterogene IT-Strukturen in mittelständischen und Großunternehmen und lassen sich dort problemlos an die unterschiedlichen Level der Sicherheitsanforderungen anpassen. Weitere Informationen: TIM AG Tel xx 6 7 yy

8 EMC Isilon Storage-Systeme gegen die Informationsflut Die Systeme von EMC Isilon sind speziell für die Analyse und die Verarbeitung von sehr großen Daten mengen konzipiert. Gleichzeitig lassen sie sich sehr einfach skalieren. Big Data ist derzeit das am intensivsten diskutierte Thema der IT-Branche. Man versteht darunter Datenmengen, die so groß sind, dass sie mit Standard-Datenbanken nicht mehr oder nur unzureichend verarbeitet werden können. Die Schwierigkeiten treten auf allen Ebenen auf, beim Erfassen der Daten ebenso wie bei ihrer Speicherung, bei der Suche, bei der gemeinsamen Arbeit an den Daten, bei der Analyse und der Visualisierung. Und ein Ende ist nicht in Sicht, das Datenvolumen bei Unternehmen und staatlichen Organisationen wächst weiterhin mit exponentieller Geschwindigkeit. Ein besonders heißes Thema ist Big Data im Storage-Umfeld. Viele Systeme stoßen bei Datenmengen von mehreren Petabyte und mehr an ihre Kapazitätsgrenzen. Beim Erweitern mischen die Unternehmen dann oftmals Maschinen mehrerer Hersteller, mit unterschiedlichen Betriebssystemen und verschiedenen technischen Ansätzen miteinander. Das Ergebnis ist eine heterogene Storage-Infrastruktur, die zunehmend schwieriger zu überschauen und zu verwalten ist. Das wiederum führt dazu, dass die gespeicherten Daten aus dem Blickfeld der Benutzer geraten. Die enthaltenen Informationen, die für den Geschäftserfolg des Unternehmens essenziell sein können, werden nicht mehr genutzt. Wichtigster Faktor ist das Betriebssystem Isilon begegnet diesen Herausforderungen mit Systemen, die dateibasierte Anwendungen in einem einzigen, riesigen Speicherpool konsolidieren und zusätzlich das blockorientierte iscsi-protokoll unterstützen. Die Firma hat eine Scale-out-Speicherarchitektur entwickelt, mit der sich 144 Knoten verbinden lassen. Im Mai 2011 gab die Firma auf der EMC World bekannt, dass sie die Grenze für die Kapazität eines Volumes mit einem einzigen Dateisystem auf mehr als 15 Petabyte anheben konnte. Verantwortlich dafür ist in erster Linie das von Isilon entwickelte Betriebssystem OneFS, das mittlerweile in der Version 6.5 vorliegt. Es verbindet mehrere Nodes in einem Cluster, die entweder über InfiniBand oder über Standard- Gigabit-Verbindungen miteinander kommunizieren. Der Zugriff auf die unter OneFS gespeicherten Daten ist von Clients mit Windows, Unix/Linux oder auch von Computern mit Apples Mac OS X aus möglich. Die Architektur der Isilon-Systeme ist auf eine hohe, vierfache Ausfallsicherung ausgelegt: Bis zu vier Festplatten oder vier komplette Knoten können gleichzeitig ausfallen, ohne dass dadurch Daten verloren gehen. Über die in OneFS integrierten Routinen lässt sich in einem solchen Fall ein Terabyte Daten in kürzester Zeit wiederherstellen. Isilon ist auf Scale-out-NAS-Systeme spezialisiert. Scale-out heißt, dass sich die Performance und Kapazität der Cluster einfach durch Hinzufügen weiterer Nodes erhöhen lassen. Das kann im laufenden Betrieb geschehen, die neu hinzugekommenen Systeme sind normalerweise innerhalb von etwa einer Minute konfiguriert und arbeitsbereit. Die Isilon-Systeme unterstützen die NAS-Protokolle NFS und CIFS sowie iscsi. Der Aufbau und die Konfiguration sind einfach, kostspielige professionelle Schulungen für die Administration sind in den meisten Fällen nicht erforderlich. Der große Vorteil beim Einsatz von Isilon ist, dass das Storage-Management erheblich vereinfacht wird. Anstatt heterogener, parallel arbeitender Systeme gibt es nur noch eine gemeinsame Plattform. Üblicherweise genügt Isilon Hardware-Plattformen bauen auf der innovativen Scale-out-Architektur auf, die für einfache Handhabung, erstklassige Performance und Zuverlässigkeit ausgelegt ist. Die Plattform umfasst drei flexible Produktreihen, die auf bestimmte Geschäftsanforderungen zugeschnitten sind. Die S-Serie als primärer Speicher mit extrem hoher Performance, die X-Serie als flexibelstes Angebot mit perfekter Ausgewogenheit von Speicher & Performance und die NL-Serie zur Bereitstellung kosteneffektiver, hoch skalierbarer Disk-2-Disk und Archivspeicher.

9 auch bei großen Clustern mit mehreren Petabyte Kapazität ein einziger Mitarbeiter, um die Systeme zu verwalten, vor allem, da sie sehr einfach erweiterbar sind. Die Total Costs of Ownership (TCO) gehen deutlich zurück. Die Isilon X-Serie skaliert von einem einzigen Dateisystem mit wenigen Terabyte auf mehr als 15 Petabyte und einen Durchsatz von mehr als 100 GB/s. Bei einer Studie von Forrester Consulting stellte sich zudem heraus, dass der durchschnittliche Auslastungsgrad bei Isilon-Systemen mit 82 Prozent höher ist als bei den Systemen traditioneller Hersteller, die auf 60 Prozent kamen. Das reduziert die Anschaffungskosten für Storage und Ports und sorgt zudem dafür, dass weniger Energie verbraucht wird. Im Kontext der Isilon-Technologie darf schließlich nicht der Hinweis fehlen, dass die Systeme Hadoop unterstützen, ein Software- Framework, das die Analyse extrem großer Datenmengen auf Computer-Clustern erlaubt. Damit kommt dann auch Greenplum HD ins Spiel, eine Datenbank, die speziell für den Umgang mit Big Data entwickelt wurde und es ermöglicht, in großen Volumen unstrukturierter Daten Trends und Entwicklungen zu erkennen. Genau wie Isilon gehört Greenplum seit 2010 zu EMC. Abgrenzung zur EMC VNX Erst im vergangenen Jahr hat EMC die VNX-Serie vorgestellt, den Nachfolger für die Celerra- und CLARiiON-Reihen. Bei voller Ausbaustufe vereinen diese Systeme ebenfalls eine hohe Performance mit großer Kapazität und sind dennoch dank der einheitlichen Management-Oberfläche Unisphere einfach zu administrieren. Was unterscheidet sie also von den Isilon-Systemen, für welche Anwendungen und Kunden eignen sich Isilon und VNX? Den wichtigsten Unterschied macht natür lich das Dateisystem. Mit dem OneFS von Isilon lassen sich unter einem einzigen Dateisystem und Volume über 15 Petabyte Speicherkapazität verwalten, bei einer VNX hingegen maximal 16 Terabyte. Sie ist zudem in der Unified-Storage-Welt zuhause, unterstützt also sowohl File- wie auch blockorientierte Protokolle, während es sich bei den Isilon-Systemen um typische, datei orientierte NAS-Systeme handelt, welche die Protokolle NFS, CIFS und HTTP unterstützen. Und: Isilon setzt auf eine Scale-out- Architektur, eine horizontale Skalierung, bei der die Nodes zu Clustern verbunden werden. Durch Hinzufügen weiterer Maschinen lassen sich dann Performance und Kapazität des Gesamtsystems sehr einfach steigern. Die VNX-Serie hingegen ist ein Scale-up-System, bei dem Performanceund Kapazitätssteigerungen durch den Ausbau der vorhandenen Hardware erreicht werden. Für welche Kundenanforderungen sind die Systeme geeignet? Isilon ist immer dann die richtige Wahl, wenn es um die Arbeit mit sehr großen Datenmengen geht. Die Systeme von Isilon zeigen ihre Stärken vor allem dann, wenn eine hohe Bandbreite gefragt ist, um große Datenvolumen schnell verarbeiten zu können, wenn es also, ganz nüchtern gesprochen, um möglichst viele Gigabytes pro Sekunde geht. Das prädestiniert sie beispielsweise für den Einsatz beim Video-Streaming und bei der Video produktion oder auch beim digitalen Rundfunk und Fern sehen. Die VNX-Systeme hingegen sind für die übliche Datei-, Blockund Objekt speicherung konzipiert. Sie können immer dann glänzen, wenn es darum geht, geschäftskritische Daten zu verarbeiten oder zu sichern, wenn also ein möglichst hoher Datendurchsatz (in Input / Output Operations per Second, IOPS) benötigt wird. Und: Sie eignen sich ausgezeichnet für die Bereitstellung virtualisierter Applikationen. Ein Cluster aus Isilon- Maschinen ist dagegen dort am richtigen Platz, wo es um die Verarbeitung großer Mengen an unstrukturierten Daten geht. Das können neben Texten auch Präsentationen sein, Videos, Audiodaten, Fotos oder auch Konstruktionszeichnungen. Auch die riesigen Berge von automatisch generierten Daten, wie sie beispielsweise bei Telekommunikationsfirmen, meteorologischen Diensten oder Luftfahrt-Gesellschaften anfallen, sind bei Isilon gut aufgehoben. Die Isilon-Systeme können solche Daten nicht nur in großen Mengen aufnehmen, sondern bilden auch die geeignete Plattform für Anwendungen zur Analyse und Weiterverarbeitung. Im Einzelnen richten sich die VNX- Maschinen an Kunden in mittelständischen und Großunternehmen sowie Einrichtungen der öffentlichen Hand. Die Systeme sind ausgelegt für klassische IT-Workflows wie Datenbanken, beispielsweise von Oracle oder den Microsoft SQL Server, ERP- und CRM-Systeme wie SAP, jede Art von virtualisierten Applikationen, Kommunikations-Anwendungen wie Microsoft Exchange, und können auch als Basis für die Dateiablage der Mitarbeiter eines Unternehmens und fürs Filesharing dienen. Die typischen Anwendungsszenarien für Isilon-Systeme finden sich dagegen beispielsweise bei Großunternehmen aus der Medienund Unterhaltungsindustrie, die für ihren Produktionsprozess vom Editing über die Qualitätskontrolle im Playout-Center bis hin zur Archivierung leistungsfähige Storage-Lösungen suchen, deren Performance und Kapazität über das normale Maß hinausgehen. Auch Unternehmen aus der Internet-Branche, die umfangreiche Buchungssysteme oder Webshops betreiben, Plattformen für Multimedia-Daten bereitstellen oder als Service Provider tätig sind, gehören zur Zielgruppe von Isilon. Des Weiteren umfasst diese Gruppe Organisationen und Großunternehmen aus den Bereichen Maschinenbau, Biowissenschaften sowie Öl- und Gasförderung Die Isilon-Architektur bietet durch einen bis N+4 abgestuft einstellbaren Parity- Schutz eine hohe Ausfallsicherheit. und -verarbeitung. Und auch in der Forschung bei Hochschulen, staatlichen wissenschaftlichen Einrichtungen und privaten Unternehmen sind Isilon-Maschinen die passende Lösung für die IT-Abteilungen. Fazit Isilon ist Big Data. Die Systeme von EMC Isilon stehen wie keine zweite Storage- Produktreihe für die Verarbeitung von großen, unstrukturierten Datenmengen. Dank der Möglichkeit zum Einrichten extrem großer Volumes von mehr als 15 Petabyte, die eine hohe Auslastung fördern, und der einfachen Administration sind die Maschinen auch in Unternehmen und Organisationen einsetzbar, die nicht über IT-Abteilungen mit Hunderten Beschäftigten verfügen. Weitere Informationen: TIM AG Tel

10 Fundierte Entscheidungen brauchen schnelle Datenanalyse. Die neuen Dell PowerEdge Server: Leistungsstärker, innovativer und schneller war noch kein Dell Server! Ab sofort können Ihre Kunden schneller besser informierte Entscheidungen treffen denn Erfolg braucht Innovation. Geben Sie Ihren Kunden jetzt die Performance und die Tools an die Hand, die sie brauchen, um ihr Unternehmen voranzubringen: mit den neuesten Dell PowerEdge Servern und Intel Xeon Prozessoren, die bis zu 80 % leistungsfähiger sind als Prozessoren der Vorgängergenerationen.* Ob schnellerer Datenzugriff, zuverlässigere geschäftskritische Anwendungen, einfachere Skalierbarkeit, weniger Ausfallzeiten, geringere Kosten oder mehr virtuelle Maschinen die neuen Dell Server bieten all das und noch mehr für hocheffiziente Virtualisierung. Die neuen Dell PowerEdge Server der zwölften Generation * Der Leistungsvergleich basiert auf dem geometrischen Mittel aus den SPECintratebase2006, SPECfp*_rate_base2006, STREAM*_MP Triad und LINPACK* Benchmark-Tests. Der geometrische Ausgangsmittelwert von 166,75 wurde auf Grundlage der besten auf veröffentlichten SPECrate* Ergebnisse sowie der intern von Intel geschätzten Ergebnisse in den STREAM*_MP Triad und LINPACK Benchmark-Tests für eine Plattform mit Intel Xeon X5690 Prozessor der Vorgängergeneration mit zwei Sockeln berechnet, Stand 5. Dezember Der neue geometrische Mittelwert von 306,74 basiert auf internen Intel Schätzungen für die Intel Rose City Plattform mit zwei Intel Xeon E Prozessoren, Turbo Boost, aktiviertem EIST, Hyper-Threading-Technik, 128 GB RAM, Red Hat* Enterprise Linux Server 6.1 Beta für x86_6 und Intel Compiler 12.1, bei deaktiviertem THP für SPECfp_rate_base_2006 und aktiviertem THP für SPECint*_rate_base2006. Intel, das Intel Logo, Xeon und Xeon Inside sind Marken oder eingetragene Marken der Intel Corporation in den USA und/oder anderen Ländern.

11 Symantec Mit schnelleren Sicherungen gegen die Datenflut Unter dem Motto Better Backup for All wurde Symantec NetBackup 7.5 um Funktionen für verkürzte und vereinfachte Sicherungen erweitert. Seit Jahren schon beklagen Administratoren die tendenziell sinkenden IT-Budgets in Unternehmen und staatlichen Organisationen. Eine besondere Herausforderung ergibt sich für sie dabei, da die Datenmengen, mit denen sie es in ihren Rechenzentren zu tun haben, in den vergangenen Jahren exponentiell angestiegen sind. Vor allem der Pool an unstrukturierten Daten nimmt ein immer größeres Volumen an. Hinzu kommt die wachsende Komplexität der IT-Landschaft: In den Rechenzentren werden immer mehr Server und Applikationen virtualisiert, gleichzeitig wächst durch den Trend zum Bring your own Device und den zunehmenden Einsatz von Mobilgeräten die Vielfalt der eingesetzten Hardware. Die IT-Abteilungen stehen dabei vor dem Problem, dass die Zeitfenster, die sie für ihre Backups kalkuliert haben, nicht mehr ausreichen. Folge: Die Service Level Agreements (SLAs) können nicht mehr eingehalten werden. Gleichzeitig stehen die IT-Verantwortlichen unter dem Druck, die Disaster-Recovery-Prozesse zu vereinfachen und zu beschleunigen, um schnellere Restores realisieren zu können. Um diese Aufgaben zu lösen, bedarf es neuer Ansätze beim Backup. Symantec stellt mit NetBackup 7.5 eine Lösung vor, die Administratoren erweiterte Möglichkeiten bei der Bewältigung der Datenflut eröffnet. Accelerator und Replication Director Die interessanteste Funktion zur Reduktion des Zeitaufwands für die Backups ist der neue NetBackup Accelerator. Nach einem ersten Full Backup führt er nur noch inkrementelle Sicherungen durch, berücksichtigt also lediglich neu hinzugekommene oder veränderte Datenblöcke. Das hat üblicherweise den Nachteil, dass die inkrementellen Backups bei einem Restore in einem zeitraubenden Vorgang erst wieder zu einer kompletten Sicherung zusammengefügt werden müssen. NetBackup Accelerator umgeht das, indem er nach jedem Sicherungslauf im Hintergrund ein sogenanntes Optimized Synthetic Full Backup erzeugt. Dabei generiert die Software keine neuen Images, sondern legt ledig lich die Datenbankeinträge für ein Vollbackup an. Trotzdem lässt sich auf diese Weise jederzeit ein schneller Restore-Vorgang durchführen. Da das NetBackup Accelerator reduziert die I/O-Kosten ohne die CPU-Performance zu beeinträchtigen. Programm die Änderungen anhand des NTFS Change Journals von Windows oder, unter Linux und Unix, anhand einer Logdatei erkennt, entfällt zudem der aufwendige Scan des Dateisystems. Um die Dauer des Backups noch weiter zu verkürzen, setzt Accelerator Deduplizierung ein. Das bedeutet in diesem Fall, dass lediglich die Daten von den Clients gesichert werden, die auf dem Host noch nicht vorhanden sind. Durch die Deduplizierung und das zuvor beschriebene Verfahren der inkrementellen Sicherungen kann NetBackup Accelerator den Backup-Vorgang um bis zum Hundertfachen beschleunigen. Die zweite wichtige Neuerung von Net- Backup 7.5 ist der Replication Director, der sich speziell an NetApp-Kunden richtet. Sie können damit die Snapshots aus NetBackup heraus auslösen, katalogisieren und wiederherstellen. Des Weiteren ist es möglich, die Snapshots in ein zweites Rechenzentrum zu replizieren, entweder über NetApp SnapVault oder über SnapMirror. Außerdem lassen sie sich auf Bandlaufwerke oder externe Festplatten schreiben. Ebenfalls neu ist NetBackup Search, eine Funktion, die in bestimmten Fällen die Verwaltung gesicherter Daten deutlich vereinfacht. Wenn ein Administrator die mit einem bestimmten Mitarbeiter verbundenen Daten wegen einer gesetzlichen Gewährleistungsfrist über den üblichen Sicherungszeitraum hinaus aufbewahren muss, dann braucht er nicht mehr die komplette Sicherung zu archivieren, sondern kann die zu dem Projekt gehörenden Daten entsprechend kennzeichnen. Während in der Folge alle anderen Daten freigegeben und von NetBackup gelöscht werden, bleiben die Projektdaten erhalten. Auf diese Weise spart der Anwender Bänder und Storage. Neu ist schließlich auch das OpsCenter Operational Restore. Damit lässt sich über eine webbasierte Oberfläche die Suche nach Dateien auf bestimmte Clients einschränken. So läuft die Suche natürlich erheblich schneller, als wenn sämtliche Clients einer Organisation durchforstet werden müssen. Ausblick auf Version 7.6 Für das zweite Halbjahr 2012 hat Symantec NetBackup 7.6 angekündigt. Diese Version wird sich voraussichtlich in erster Linie um Komplettierungen der mit 7.5 vorgestellten Neuerungen kümmern. Das lässt sich gut am Beispiel des NetBackup Replication Director darstellen: Während diese Funktion in Version 7.5 lediglich für NetApp-Anwender und NAS-Protokolle verfügbar ist, wird die Unterstützung mit Version 7.6 auf die SAN-Protokolle Fibre Channel und iscsi erweitert. Hinzukommen sollen außerdem eine Unterstützung für VMware und eine direkte Zusammenarbeit mit Applikationen wie Oracle, Exchange oder Microsoft SQL Server, um so applikationskonsistent Daten über einen Snapshot zu sichern. Ähnliche Veränderungen wird es beim NetBackup Accelerator geben. Derzeit ist er für Dateisysteme verfügbar, in Zukunft soll auch VMware unterstützt werden. Wie der Funktionsumfang von Version 7.6 allerdings genau aussehen wird, ist momentan noch nicht bekannt. Weitere Informationen: TIM AG Tel

12 EMC EMCs neue Cache-Technologie bringt Performance-Boost Mit VFCache stellt der Storage-Hersteller ein Produkt vor, das in Zusammenarbeit mit EMC F.A.S.T. die Reaktions zeiten von Webanwendungen und Datenbanken drastisch verkürzen kann. EMC bietet mit den Technologien F.A.S.T und VFCache eine End-to-End-Tiering-Lösung zur Optimierung von Kapazität und Leistung vom Server bis zum Speicher. Auf die Erledigung von Datenbank- Abfragen warten zu müssen, ist im Unternehmens umfeld keine Option. Bestellungen müssen sofort verbucht werden, Umsatzzahlen immer aktuell bereitstehen. Professionelle Datenbank-Anwendungen beispielsweise von Oracle oder SAP oder auch Web- und Finanzanwendungen erfordern daher Lösungen, die eine höchstmögliche Performance bieten. Gleichzeitig müssen natürlich immer auch die Kosten im Auge behalten werden. EMC hat daher bereits vor einigen Jahren die F.A.S.T.-Technologie entwickelt, das Fully Automated Storage Tiering. Tiering lässt sich übersetzen mit Abstufen oder Staffelung und bedeutet, dass die vorhandenen Speichermedien gemäß ihrer Performance und verschiedenen Preisklassen unterschiedlichen Stufen zugeordnet werden. Auf Tier 1 etwa werden schnelle SAS- oder Fibre-Channel-Festplatten eingesetzt, die jedoch einen verhältnismäßig hohen Preis pro Gigabyte aufweisen. Auf Tier 2 sind es die Highend-SATA-Platten mit Umdrehungen pro Minute, die ebenfalls noch sehr geringe Zugriffszeiten versprechen. Tier 3 versammelt dann SATA-Platten mit 7200 oder auch 5400 Umdrehungen, die sich durch einen besonders günstigen Preis auszeichnen. Vor einigen Jahren wurde zusätzlich Tier 0 definiert, das mit den derzeit schnellsten, aber auch teuersten Festplatten arbeitet, den SSDs, beziehungsweise den von EMC entwickelten EFDs (Enterprise Flash Drives). EFDs verwenden SSD-Technik, wurden jedoch von EMC noch einmal in puncto Datensicherheit, Langlebigkeit und Performance optimiert. EMC F.A.S.T. sorgt nun dafür, dass die zu speichernden Daten automatisch auf die verschiedenen Tiers verteilt werden. Besonders häufig angeforderte Daten, die schnell zur Verfügung stehen müssen, landen auf Tier 0 oder Tier 1. Etwas weniger oft angefragte Daten verschiebt F.A.S.T. auf Tier 2, die am wenigsten benötigten Daten auf Tier 3. Auf diese Weise lassen sich die Kosten pro I/O-Vorgang optimieren und insgesamt drastisch senken. SAN-Verbindung als Bremse Doch manche Anwendungen erfordern eine I/O-Leistung, die auch mit den schnellsten derzeit verfügbaren SSDs nicht befriedigt werden kann. Denn gebremst wird der Datenfluss nicht durch das Speichermedium, sondern durch den Übertragungsweg zwischen dem Host und dem Speicher-Subsystem. Üblicherweise läuft der Datenverkehr über ein SAN, das entweder auf dem Fibre-Channel- oder einem IP-Protokoll basiert. Und ganz gleich, wie breitbandig diese Verbindungen ausgebaut sind, es bleibt immer eine Latenzzeit. Die Laufzeit über das Kabel lässt sich nicht eliminieren. Es gibt zwei Möglichkeiten, das Problem anzugehen: Entweder man bringt den Speicher näher an die CPU des Host-Rechners oder die CPU näher an den Speicher. Mit dem im vergangenen Jahr auf der EMC World vorgestellten VFCache hat sich EMC für die erste Möglichkeit entschieden. EMC VFCache für das Host-System VFCache besteht aus einer PCIe-Karte und der zugehörigen Treiber-Software. Das Produkt wird auf dem Host-System installiert und ist kompatibel zu Microsoft Windows Server 2008 und Linux, außerdem arbeitet es mit virtuellen Umgebungen unter VMware vsphere 4.1 und 5.0 zusammen. Die Karte ist mit 300 Gigabyte Flash- Speicher ausgerüstet, der als Cache für Leseoperationen auf den Laufwerken beziehungs weise Mit VFCache wird die Anwendungs-Performance einer traditionellen Storage-Architektur drastisch verbessert. Dabei werden Lese-Anforderungen durch den VFCache bearbeitet, Schreib-Operationen gehen direkt zum Speichersystem, um einen Datenverlust zu vermeiden.

13 LUNs des Speicher-Subsystems konfi guriert wird. VFCache sammelt in seinen schnellen Flash-Modulen die am häufigsten angeforderten Daten und stellt sie auf dem Server bei entsprechenden I/O-Anfragen zur Verfügung. Die Daten werden also vom Storage-System über das SAN in den VFCache des Hosts übertragen und dort vorgehalten. Da in der Folge die am häufigsten benötigten Daten bereits auf dem Server vor liegen und dort abgerufen werden können, mithin die Übertragung übers Netzwerk entfällt, lassen sich erheblich mehr I/O-Vorgänge durchführen. Der Cache selbst funktioniert so: Sobald eine I/O- Leseanforderung kommt, wird sie von der VFCache- Software an die PCIe-Karte weiter gereicht. Falls die Daten bereits im Cache vorliegen, wird die Anforderung erfüllt, falls nicht, an die Festplatte weitergeleitet. Dabei merkt sich die Karte, welche Datenblöcke besonders oft angefordert werden. Falls nun ein Block häufiger als andere von der Festplatte gelesen werden muss, übernimmt sie ihn in ihren Flash-Speicher und bedient die nächste Anfrage aus dem Cache. Diese Arbeitsweise entspricht weitgehend dem, wie auch der integrierte Cache in einer CPU oder der Cache-Speicher im RAM organisiert ist. Die Reaktionszeit wird dadurch von Milli- auf Mikrosekunden reduziert. VFCache sorgt aber auch noch in anderer Hinsicht für eine Performance- Stei gerung: Da die Karte mit einer hohen Intelligenz ausgestattet ist, nimmt sie der CPU des Servers einiges an Arbeit ab. Vorgänge wie beispielsweise das Durchsuchen des Cache, die normalerweise der Hauptprozessor erledigen muss, werden auf die PCIe-Karte übertragen. Die CPU wird also entlastet und hat mehr Kapazitäten für andere Aufgaben. VFCache lässt sich in dieser Hinsicht vergleichen mit dem Effekt einer TCP/IP Offload Engine auf einem Netzwerk- Adapter. Beschleunigung von Lesezugriffen Die Karte beschleunigt zusammen mit ihrer Software alle blockbasierten Protokolle. Ob es sich bei den Festplatten um interne oder externe Modelle handelt, spielt keine Rolle. Es muss jedoch immer klar sein, dass sich VFCache ausschließlich um Lesevorgänge kümmert. Schreib operationen hingegen werden durchgereicht ans Speicher-Subsystem. Das geschieht aus Gründen der Datensicherheit: Würde VFCache auch Schreibzugriffe cachen, könnte es bei einem Server-Ausfall zu Datenverlusten kommen, falls die Daten in den Flash-Modulen nicht mehr auf die Platte geschrieben werden könnten. Bei Datenbank-Anwendungen könnte das dazu führen, dass die gesamte Daten bank korrumpiert und damit unbrauchbar würde. VFCache ist vor allem beim Einsatz von solchen Anwendungen effektiv, die sehr viele I/O-Vorgänge pro Sekunde oder eine sehr niedrige Reaktionszeit erfordern. Dazu zählen beispiels weise umfangreiche Web-Anwendungen wie Shops oder Buchungssysteme, Datenbanken für die Online-Transaktions - ver arbeitung, das Customer Relationship Manage ment (CRM) und das Enterprise Resource Planning (ERP) sowie -Anwendungen. Ihnen allen ist gemein, dass auf verhältnis - mäßig wenige Daten sehr häufig und oftmals gleichzeitig zugegriffen wird. Die neue Cache-Technologie ermöglicht I/O-Vorgänge in Größenordnungen, die im Vergleich mit Systemen ohne VFCache astronomisch erscheinen. Während eine herkömmliche, mechanische Festplatte pro Sekunde auf etwa 150 bis 180 I/O-Vorgänge pro Sekunde kommt (IOPS, I/O Operations per Second), sind es bei EFDs bereits 2000 bis Für VFCache gibt EMC Leseraten von bis zu IOPS an, in der Praxis sind über IOPS realistisch. Aufgrund der hohen Performance-Unterschiede hat EMC für den VFCache eine neue Tier-Stufe eingeführt Tier -1. Im klassischen TPC-C-Benchmark mit einer Oracle-Datenbank mit einem Volumen von 1,2 Terabyte und einer Schreib-/Leserate von 70 zu 30 ließ sich nach Installation von VFCache die Response-Zeit um 60 Prozent verbessern. Die Transactions per Second waren dabei um den Faktor drei erhöht. Insgesamt kam es zu einer Performance-Steigerung von 210 Prozent. VFCache bringt die Daten näher zur Anwendung, passt sich dabei automatisch verändernden Workloads an und ermöglicht damit einen jederzeit effizienten I/O-Pfad. Transaktionskosten senken Diese Daten bedeuten gleichzeitig auch, dass sich mit VFCache in der Unternehmens-IT sogar Kosten senken lassen: Denn berücksichtigt man die Kosten pro Transaktion, lassen sich durch den Einsatz von VFCache bei transaktionsintensiven Anwendungen die Kosten deutlich nach unten drücken. Als hostbasiertes System arbeitet VFCache nicht nur mit Storage-Systemen von EMC zusammen. Die Karte ist ganz allgemein für die Performance-Verbesserung von Anwendungen konzipiert, ganz gleich, ob sie auf einem physischen Server laufen oder virtualisiert sind. Speichersysteme von EMC, und darunter vor allem die Unified-Storage-Systeme aus der VNX-Reihe, profitieren jedoch ganz besonders vom Einsatz des Cache, da deren Mechanismen sich reibungslos in die des Storage-Systems einpassen. Weitere Informationen: TIM AG Tel

14 UNITE PHYSICAL AND VIRTUAL Symantec Backup Exec 2012 und NetBackup 7.5 enthalten erweiterte neue Funktionen für virtuelle und physische Umgebungen. Beseitigen Sie die Komplexität bei Backups mit TIM und Symantec. Hier informieren: Sie müssen also nur eine Lösung erwerben, um Ihre gesamte Umgebung zu sichern: Eine einzige Lösung für VMware -, Hyper-V - und physische Server Wiederherstellung einzelner Dateien, Deduplizierung und Richtlinienverwaltung Neue V-Ray-Technologie für optimalen Einblick in die gesamte Umgebung Automatische Sicherung neuer oder verschobener VMs Confidence in a connected world.

15 NetApp Cluster-Mode vereinfacht und flexibilisiert Administration Mit dem Cluster-Mode von Data ONTAP 8.1 verstärkt NetApp sein Engagement beim Scale-out-Storage und bleibt dennoch seiner Unified-Storage-Philosophie treu. Was tun, wenn die Performance der vorhandenen Storage-Systeme nicht mehr ausreicht? Wenn die Anforderungen der eingesetzten Applikationen so gestiegen sind, dass zusätzliche Rechenleistung gefragt ist? Oder wenn die Speicherkapazität in absehbarer Zeit erschöpft sein wird? Eine mögliche Lösung ist ein Upgrade auf größere Systeme mit höherer Rechenleistung und Kapazität. Doch ein solches Scale-up, also eine vertikale Skalierung, erfordert fast immer eine Unterbrechung des laufenden Betriebs der Applikationen und anschließend eine Neukonfiguration. Solche Betriebsausfälle sind teuer, entsprechend ungern gesehen und bei manchen kritischen Applikationen sogar nahezu ausgeschlossen. Und auch bei einem Scale-out, also einer horizontalen Skalierung durch Hinzufügen zusätzlicher Maschinen, ist eine Betriebsunterbrechung oftmals nicht zu vermeiden und bringt zudem das Problem mit sich, dass die neu hinzugekommenen Systeme auch den administrativen Aufwand erhöhen. Mit seinem Betriebssystem Data ONTAP in der Version 8.1 präsentierte NetApp im vergangenen Herbst eine Lösung, die nicht nur ein Scale-out-Clustering im laufenden Betrieb erlaubt, sondern auch äußerst flexibel ist, was die Einbindung von Midrange- oder auch Highend-Storage-Systemen anbelangt oder auch den Einsatz unterschiedlicher Speichermedien. Auch ein klassisches Tiering lässt sich auf diese Weise realisieren. Zudem, und das unterscheidet NetApp vom Wettbewerb, lässt sich der Cluster- Mode von Data ONTAP 8.1 sowohl in der NASwie auch in der SAN-Welt einsetzen. NetApp fasst die Fähigkeiten von Data ONTAP 8.1 unter den Stichworten Always-on, bedarfsgerechte Flexibilität und betriebliche Effizienz zusammen. In den folgenden Abschnitten soll es darum gehen, was das im Einzelnen bedeutet und welche Vorteile sich dadurch für den Kunden ergeben. Clustering für NAS und SAN Der Cluster-Mode ist eine neue Funktion von Data ONTAP 8.1. Systeme mit diesem Betriebssystem lassen sich nicht nur für NAS- Workloads einsetzen, also beispielsweise für Anwendungen im Medienbereich, bei denen Mit der Scale-out-Architektur von Data ONTAP 8.1 entsteht aus Applikationssicht ein Global Namespace, der sich über alle physischen Maschinen erstreckt. umfangreiche Datenmengen erfasst werden müssen. Sie unterstützen auch typische SAN- Workloads wie etwa Oracle und andere Datenbank-Verwaltungen und beherrschen die Protokolle Fibre Channel (FC), iscsi und Fibre Channel over Ethernet (FCoE). NetApp hat also mit ONTAP 8.1 eine Plattform geschaffen, die sich für Workloads aller Art anbietet und damit die Tradition der Unified-Storage-Systeme der Firma weiterführt und ausbaut. Doch der Cluster-Mode ist beileibe nicht die einzige Neuerung von ONTAP 8.1. Zum Liefer umfang des Betriebssystems gehören nun auch Funktionen wie ein integriertes Antiviren- Programm, asynchrone Spiegelung, die Unterstützung von NFS in den Versionen 4 und 4.1 (inklusive pnfs), die Integration der VMware- Schnittstelle VAAI (vstorage API for Array Integration) in NFS, das Microsoft-NAS-Protokoll SMB in Version 2.1 sowie Verbesserungen bei der Verwaltung und der Support-Freundlichkeit. Und auch die NetApp-Funktionen zur Storage- Effizienz sind verfügbar. Dazu später noch mehr. Die entscheidende Verbesserung von Data ONTAP 8.1 gegenüber den Vorgänger- Versionen sind jedoch die Möglichkeiten, die das Betriebssystem bei der Skalierung einer Storage- Umgebung eröffnet. NetApp hat im Prinzip eine zusätzliche Virtualisierungsschicht eingezogen, die die physischen Storage-Controller von den Applikationen trennt. Die Anwendungen sehen lediglich einen oder mehrere virtuelle Controller, die von den physischen Maschinen völlig unabhängig sind. Der Administrator kann einen Global Namespace über alle Storage-Systeme hinweg einrichten, was die Verwaltung deutlich vereinfacht und den Aufwand reduziert. Always-on für SAN und NAS Im Cluster-Mode von ONTAP 8.1 ist es möglich, eine Storage-Umgebung im laufenden Betrieb und ohne dass es zu Einschränkungen bei der Funktionalität kommt, zu skalieren und an den aktuellen Bedarf des Betreibers anzupassen. Die Daten lassen sich einfach auf andere Controller verschieben und zwar, wie gesagt, ohne dass Betriebsunterbrechungen erforderlich wären. Für die Applikationen ändert sich dabei nichts: Sie greifen nach wie vor auf den gleichen virtuellen Controller zu. Das bringt nicht nur beim Skalieren erhebliche Vorteile, sondern auch bei der Wartung und beim Einsetzen von Upgrades. Wenn ein Controller beispielsweise durch ein Modell mit einer leistungsfähigeren CPU ausgetauscht werden soll oder wenn es zu einem Defekt gekommen ist, kann der Administrator die Daten von dem betroffenen Storage-Controller auf einen anderen migrieren, den Controller austauschen und die Daten anschließend wieder zurückholen. Auch das im laufenden Betrieb. Weitere Informationen: TIM AG Tel

16 NetApp Dank der Virtualisierung lassen sich die Systeme auch besser ausnutzen. Wenn eine Applikation beispielsweise so gewachsen ist, dass die Ressourcen, also Rechenleistung und Speicherkapazität, auf ihrem Storage-Controller knapp werden, ist es möglich, im Zuge eines Re-Balancing einzelne Workloads auf andere, weniger belastete Controller zu verschieben. Auf diese Weise werden die vorhandenen Systeme optimal genutzt und gleichmäßiger ausgelastet. Die Always-on-Funktionalität sorgt also für eine Hochverfügbarkeit der Storage-Controller. Um darüber hinaus die klassische Ausfallsicherheit zu bekommen, bei der sämtliche Daten immer aktuell auch auf einer zweiten Maschine vorgehalten werden, lässt sich zusätzlich noch eine Spiegelung einrichten. Mehr Flexibilität durch Skalierung Mit ONTAP 8.1 verfolgt NetApp einen Scale-out-Ansatz: Bei Performance-Engpässen werden einfach weitere Storage-Controller hinzugefügt. Auf der anderen Seite können bei der Auslagerung von Geschäftsbereichen, wenn also weniger Storage erforderlich ist, einzelne Maschinen aus dem Verbund herausgenommen werden. Ein Unternehmen kann also klein beginnen und beispielsweise mit zwei Storage- Controllern ein SAN- oder eine NAS-Lösung aufbauen. Wenn die Anforderungen dann im Laufe der Jahre steigen, kann die IT-Abteilung jederzeit flexibel reagieren und einfach weitere Systeme hinzufügen. Theoretisch ist die Kapazität und Performance eines solchen Clusters unbegrenzt. Denn jeder Storage-Controller, der hinzugefügt wird, erhöht die Leistung an IOPS (I/O Operations per Second) des Gesamtsystems, da alles einem großen, virtuellen Storage-Controller zugeschrieben wird. Das Gleiche gilt für die Kapazität: Mit einem Cluster aus mehreren Highend-Systemen der 6200er-Serie von NetApp, von denen jedes mehrere Petabyte Storage- Kapazität verwalten kann, bekommt man einen gigantischen virtuellen Storage-Controller. In der Praxis sind die Cluster von ONTAP 8.1 in der NAS-Welt momentan auf maximal 24 Nodes beschränkt. In einem SAN lassen sich derzeit bis zu vier Nodes zusammenschalten, wobei dieser Wert allerdings schon in naher Zukunft erhöht werden soll. Effizient im Betrieb Beim Clustering wird die Storage-Hardware gewissermaßen virtualisiert. Der Administrator kann über alle Nodes hinweg einen virtuellen Server, einen V-Server, mit einem einheitlichen Global Namespace einrichten, über den sämtliche Volumes ansprechbar sind. Parallel zur Zahl der Namespaces verringert sich auch der administrative Aufwand für ihre Verwaltung, die Administration arbeitet erheblich effizienter. Zwar wird man aus praktischen Erwägungen heraus zumeist mehrere V-Server einrichten. Doch sie alle sind Teil eines einzigen Namespace. Welche Hardware hinter einem V-Server steckt, ist aus Applikationssicht weitgehend irrelevant. Außerdem lassen sich problemlos auch die Controller-Typen mischen. Eine Maschine aus der FAS2000-Serie von NetApp lässt sich kombinieren mit einer FAS3200 und/oder einer FAS6200. Über die V-Serie von NetApp kann die IT-Abteilung außerdem Third-Party- Storage von anderen Anbietern in den Cluster aufnehmen. Alle Controller lassen sich mit ein und demselben Verwaltungstool administrieren, dem NetApp System Manager 2.0. Auch das bringt noch einmal eine Vereinfachung und Effizienzsteigerung. Eine solche heterogene Infrastruktur mit Storage-Controllern aus dem Entry-, Midlevelund Highend-Bereich und mit Maschinen unterschiedlicher Hersteller bietet sich natürlich für ein Tiering an. Den Controllern mit Highspeed- Storage, die also beispielsweise mit verhältnismäßig kleinen, aber kostenintensiven SSDs oder SAS-Platten bestückt sind, würde man dabei Daten zuweisen, auf die besonders häufig zugegriffen wird. Auf die Storage-Controller mit den preiswerteren, weniger performanten SATA-Disks mit der höheren Speicherkapazität hingegen kann der Administrator solche Daten auslagern, die seltener benötigt werden oder archiviert werden sollen. Trotz eines Global Namespace und einer virtuellen Server-Struktur sind ONTAP-8.1- Clus ter mandantenfähig. Die V-Server-Einheiten sind genauso sicher voneinander trennbar als handele es sich um Controller, die physisch voneinander separiert sind. Über eine rollenbasierte Zugriffskontrolle ist dafür gesorgt, dass auch die Administration jeweils auf die verschiedenen, definierten Einheiten beschränkt werden kann. Die SAN- und NAS-Protokolle werden überall in vollem Umfang unterstützt. Wichtig ist die Mandantenfähigkeit beispiels weise für Service-Provider: Sie müssen ihren Kunden die Gewähr bieten können, dass ihre oftmals hochsensiblen Daten von niemand anderem eingesehen werden können, auch wenn sie auf einem gemeinsamen Storage-Controller liegen. Aber auch innerhalb von Unternehmen existieren Bereiche, wo es darum geht, dass Daten lediglich bestimmten Benutzergruppen zugänglich sind. Beispiele dafür sind etwa die Lohnbuchhaltung oder die Personalverwaltung. Storage-Effizienz im Cluster In NetApps Unified Architecture wachsen virtualisierter Storage und Scale-Out-NAS zusammen. Storage-Effizienz war in den vergangenen Jahren eines der beherrschenden Themen bei NetApp. Denn den rapide wachsenden Datenbeständen stehen in den meisten Unternehmen stagnierende oder nur leicht erhöhte IT-Budgets gegenüber. Die IT-Infrastruktur muss also effizienter werden, um die steigenden Anforderungen erfüllen zu können. NetApp bietet seinen Kunden in diesem Zusammenhang folgende Funktionen und Tools an: Deduplizierung: Durch das Ersetzen mehrfach vorhandener Datenblöcke durch Pointer, die auf ein Original verweisen, lassen sich Datenbestände in der Praxis auf durchschnittlich etwa ein Zehntel reduzieren. RAID DP: Die von NetApp entwickelte RAID- Technik arbeitet mit zwei Paritäten, weshalb auch bei einem Ausfall von zwei Festplatten die enthaltenen Daten rekonstruierbar sind. Da bei RAID DP zusätzlich zu den Nutzdaten lediglich die Paritäten gespeichert werden, ist das entstehende Datenvolumen um bis zu 46 Prozent geringer als bei einem RAID 1-System. Thin Provisioning: Mit dieser Funktion lässt sich der ungenutzte, freie Speicherplatz auf einem System um 20 bis 33 Prozent reduzieren, indem der Storage den Applikationen

17 Nur die synchrone Spiegelung und das Vaulting sind noch nicht in den Cluster-Mode integriert. flexibel zugewiesen wird. Thin Provisioning ist eine der wirksamsten Methoden zur Effizienzsteigerung von Storage-Systemen. Flash Cache: Die intelligente Cache-Technologie erhöht den I/O-Durchsatz von SATA-Laufwerken um bis zu 75 Prozent. Oder, anders ausgedrückt: Es sind 75 Prozent weniger Disks erforderlich, um die gleichen Performance- Werte zu erreichen. Snapshots: Die Snapshot-Technologie von NetApp speichert nach dem ersten Schnappschuss des Gesamtsystems lediglich noch die Datenblöcke, die sich seit dem letzten Mal verändert haben. Auf diese Weise lässt sich das Datenvolumen um etwa 80 Prozent reduzieren. Thin Replication: NetApp SnapMirror Thin Replication arbeitet mit einer inkrementellen Replikation auf Blockebene und mit Snapshots und kann dadurch Sicherungen erheblich schneller und kostengünstiger durchführen. Virtual Copies: Das NetApp-Tool FlexClone erzeugt eine Art beschreibbarer Snapshots, die sich dadurch auszeichnen, dass sie bei unverändertem Datenbestand auch keinen Speicherplatz benötigen. Erst wenn Originaldaten hinzugefügt, bearbeitet oder gelöscht wurden, legt das Tool die veränderten Blöcke ab. Die genannten Funktionen setzen an unterschiedlichen Punkten an, um große Datenbestände zu reduzieren, ihre Wirkungen ergänzen sich. Sie alle tragen dazu bei, dass Storage-Systeme effizienter werden und größere Datenmengen verarbeiten können. Sie sind in ONTAP 8.1 ohne Ausnahme auf den NetApp-Systemen der FAS- und V-Serie verfügbar. Hinzu kommen die oben genannten Protokolle sowie die Neuerungen wie etwa die integrierte Antiviren-Software. Zudem bieten die Systeme ein Remote Caching, mit dem die Kunden an entfernten Standorten einen auf NFS basierenden Zwischenspeicher einrichten können, über den sie schnelleren Zugriff auf die Daten eines NAS-Systems bekommen. NetApp ist derzeit der einzige Hersteller, der die genannten Storage-Effizienz-Funktionalitäten auf einem Scale-out-Clustering-System zur Verfügung stellt. Sie wurden eins zu eins von Data ONTAP 7 auf die aktuelle Version 8.1 übernommen. Einzig allein die synchrone Spiegelung und SnapVault für Disk-to-Disk-Backups wurden vom ONTAP-7-Mode (noch) nicht übertragen. Storage-Systeme live erleben Technik lässt sich oft einfacher begreifen, wenn man die Hardware und Software vor sich hat und von einem Fachmann vorgeführt bekommt. Das gilt auch für Storage-Systeme. NetApp gibt daher mit seinen TechDemo-Events allen Interessenten die Möglichkeit, NetApp- Systeme einmal in der Praxis zu erleben und direkt Fragen zu einzelnen Aspekten zu stellen. Die TechDemos finden regelmäßig jede Wo che in mehreren deutschen Städten statt. Alternativ führt die TIM AG individuelle TechDemos beim Systemhaus vor Ort durch. Die Teilnahme ist kostenlos. Rund 95 Prozent der Veranstaltungsdauer werden üblicherweise für Vorführungen an den verschiedenen NetApp-Systemen und von praktischen Anwendungsszenarien genutzt. Die anwesenden Experten erklären nicht nur die Funktionsweise der Maschinen, sondern geben Anwendern auch Tipps und sind offen für Fragen zu individuellen Problemen. Natürlich ergibt sich während der Veranstaltungen auch Gelegenheit zum Erfahrungsaustausch mit anderen NetApp-Kunden. Interessant sind die TechDemos aber nicht nur für bestehende Kunden, sondern ganz generell für IT-Profis und Budget-Verantwortliche, die sich über die NetApp-Technologie informieren möchten. Im Einzelnen stehen diese Themen zur Auswahl: Überblick: Während dieser TechDemo wird demonstriert, wie man mit NetApp mehr Effizienz ins Rechenzentrum bringt, die Backup-Zeiten verringert und den Storage-Bedarf reduziert. Update: Unter dieser Überschrift präsentieren die NetApp-Experten, was es rund um die Storage-Systeme der Firma Neues gibt, und liefern hilfreiche Tipps und Hinweise zu den Systemen. Archive: In dieser Veranstaltung geht es ausschließlich um die Archivierung mithilfe von Storage-Systemen. Zusammen mit seinen Partnern PoINT, Henrichsen, H&S Heilig und Schubert Software führt NetApp eine moderne, elektronische Archivierungs-Infrastruktur vor und informiert über Möglichkeiten zur Einführung eines solchen Systems. Backup: Diese TechDemo beschäftigt sich mit den Backup-to-Disk-Technologien von NetApp und dabei insbesondere mit Snapshots. Vorgestellt wird unter anderem die Backup- Management-Software SnapProtect. Virtualisierung: Alles rund um VMware vsphere 5, Microsoft Hyper-V und Citrix Xen Desktop und das Zusammenspiel mit den NetApp- Produkten ist das Thema in dieser TechDemo. DeepDive: Unter diesem Titel bündelt NetApp Veranstaltungen, die sich mit einzelnen Funktionen und Konzepten der NetApp- Technologie eingehender beschäftigen. Im Einzelnen heißen die: TechDemos Monitoring, Thin Provisioning, gekaufte Gigabyte effektiv nutzen, Performance überwachen und verstehen, Snap drive, NetApp Know-how, Snapshots und was dann?, NetApp Scripting, VMware Best Practice, Oracle auf NetApp FAS, System Management, FlexPod und Virtualisierung (DeepDive). Shared Infrastructure: Zusammen mit Cisco stellt NetApp während dieser TechDemo Konzepte und Techniken zur IT-Konsolidierung und Kostensenkung vor. Private Cloud: In dieser Veranstaltung dreht sich alles um die Integration von Microsoftund NetApp-Produkten und um die Virtualisierung im Data Center mit Microsoft Hyper-V. SAP Referenz-Architektur / SAP HANA: In dieser Veranstaltung wird ein vollautomatisierter Workflow zum Bereitstellen von SAP- Systemen für Testumgebungen oder zum Erzeugen von SAP Standby-Systemen vorgeführt. Außer dem geht es um die Zusammenarbeit von NetApp-, Cisco- und SAP-Systemen. Spezial Cluster Mode: Wer nach dem vorangegangenen Text weitere Informationen zum Cluster-Mode von Data ONTAP 8.1 sucht, ist auf dieser Veranstaltung gut aufgehoben. Healthcare: Bei dieser TechDemo demonstrieren die Experten, wie sich mit NetApp- Produkten im Gesundheitswesen die Total Costs of Owner ship senken und gleichzeitig die Verfügbarkeit und die Performance erhöhen lassen. Jede TechDemo dauert inklusive Pausen zwischen drei und vier Stunden. Informationen zu Terminen und Veranstaltungsorten sowie ein Anmeldeformular stehen unter der Adresse bereit. Individuelle Termine unter Tel Weitere Informationen: TIM AG Tel xx 17 yy

18 Hersteller Quantum Backup-Lösungen für mehr Effizienz und Wirtschaftlichkeit Mit seinen Disk- und Tape-Devices führt Quantum vor, wie sich die beiden Technologien zum Nutzen des Kunden sinnvoll miteinander kombinieren lassen. Backup und Restore müssen schneller und einfacher werden. Das sind, kurz zusammengefasst, die beiden wichtigsten Anforderungen an die Backup-Administratoren. Eine Beschleunigung der Sicherungen ist erforderlich, da die Datenmengen rasant zunehmen, während die Zeitfenster fürs Backup unverändert bleiben und tendenziell sogar eher verkleinert werden. Gleichzeitig sollen Restore-Vorgänge beschleunigt werden, um auf diese Weise die Downtime der Systeme zu verringern und die Produktivität der betroffenen Abteilungen so schnell wie möglich wiederherzustellen. Was die Forderung nach Vereinfachung angeht, so bezieht sie sich vor allem auf das Datenhandling. Es soll so weit wie möglich automatisiert werden, um die damit befassten Mitarbeiter an anderer Stelle einsetzen zu können. Teilweise ist eine Automatisierung schon allein deshalb notwendig, da bei vielen Unternehmen die kleineren Vertriebsaußenstellen keine eigene IT-Abteilung beschäftigen. Die Datensicherung muss daher unabhängig von User-Eingriffen funktionieren. Außerdem steht natürlich jede IT-Abteilung ständig unter dem Druck, ihre Kostenstruktur kontinuierlich zu überprüfen und zu optimieren. Die Aufbewahrung älterer Daten, die beispielsweise aus Compliance-Gründen nicht gelöscht werden dürfen, soll zum einen so organisiert werden, dass sie sicher geschützt sind und nur ausgewählte Personen darauf Zugriff haben. Gleichzeitig soll die Lagerung natürlich so günstig wie möglich sein. Mischumgebung fürs Backup Quantum begegnet diesen unterschiedlichen Anforderungen bei der Datensicherung mit einem Konzept, das sowohl Disk- wie auch Tape-basierte Backups umfasst. Die Appliances aus der DXi-Serie sind mit Festplatten ausge rüstet, bei den Scalar-Systemen der Firma handelt es sich um Tape Libraries. Quantum ist davon überzeugt, dass der Kunde die bestmögliche Performance und Effizienz erzielt, indem er beides miteinander kombiniert und die Kapazität der Systeme an seine Anforderungen anpasst. So lässt sich beispielsweise die DXi4600 von 2 bis hin zu 12 Terabyte skalieren. Viele Kunden wählen dabei zunächst eine niedrigere Ausbaustufe, um später auf einen steigenden Storage-Bedarf reagieren zu können. Mit der Key-Freischaltung hat Quantum dabei eine besonders einfache und schnell umsetzbare Methode ersonnen, um die Kapazität zu skalieren: Der Kunde bekommt die DXi4600 von vornherein mit einer höheren Festplatten-Kapazität geliefert als er benötigt. Was über den bestellten Bedarf hinausgeht, ist jedoch zunächst nicht verfügbar. Wenn die Anforderungen im Laufe der Zeit wachsen, kann er den zusätzlichen Storage über einen Software-License-Key selbstständig in 2-Terabyte-Schritten freischalten (Capacity on DX 4510 DX 4601 DX 6700 Demand). Auf diese Weise passt er das System jederzeit flexibel an seine Bedürfnisse an und muss wegen der Kapazitätserweiterung keine Betriebsunterbrechung in Kauf nehmen. Die DXi-Appliances von Quantum sind konzipiert für Disk-to-Disk-Backups (D2D). Dank schneller Zugriffszeiten und der Online- Verfüg barkeit der Daten erlauben sie schnelle Restore-Vorgänge, was beim Desaster-Recovery-Fall die Downtime der betroffenen Systeme so kurz wie möglich hält. Gleichzeitig bieten sie eine Deduplizierung der gesicherten Daten an. Mit dieser Technik werden doppelt vorhandene Datenblöcke durch Pointer ersetzt, die auf die Originale verweisen. Dank der von Quantum eingesetzten Deduplizierung mit variabler Blocklänge arbeiten die Appliances besonders effektiv. Laut einer Untersuchung des Marktforschungsinstituts IDC bei verschiedenen Quantum-Kunden kann damit das Datenvolumen im Durchschnitt um etwa den Faktor 15:1 oder 93 Prozent reduziert werden. Für die Unternehmen bedeutet das deutliche Einsparungen bei den Storage-Kosten. Gleichzeitig ist es damit möglich, die knapp gewordenen Backup-Zeitfenster wieder einzuhalten. Doch in manchen IT-Umgebungen machen sich anschließend andere Flaschenhälse bemerkbar, die ein schnelles Sichern der Daten verhindern. So ergab sich bereits bei mehreren Kunden der Fall, dass auch die Weiterleitung der deduplizierten, also reduzierten Datenmenge nicht innerhalb des vorgegebenen Zeit fensters Scalar Tape Library Die DXi-Familie bietet eine Disk-basierte Datensicherung für Zweigstellen & Rechenzentren, erlaubt einen automatisierten DR-Schutz durch Replikation und ermöglicht eine transparente Auslagerung der Backups auf moderne Tape Libraries. möglich war, da die Verbindung zwischen Server-Infrastruktur und Backup-Umgebung zu schmalbandig ausgelegt war. Für diese Fälle hat Quantum Accent entwickelt. Die Software wird auf dem Media- oder Backupserver eingerichtet und ermöglicht eine Deduplizierung auf der Source-Seite. Dazu kommuniziert sie mit der DXi und analysiert, welche Daten aus dem aktuellen Backup-Satz dort bereits vorhanden sind. Diese Blöcke werden daher nicht mehr übers Netzwerk geschickt, sondern bereits im Vorfeld durch Pointer ersetzt. Das verringert spürbar die Belastung des LAN und ermöglicht innerhalb eines vertretbaren Zeitfensters auch bei schmalbandigen Verbindungen das Sichern großer Datenmengen. Der Nachteil ist natürlich, dass beim Mediaoder Backupserver CPU-Kapazität abgezwackt wird wie viel lässt sich mit dem Bordwerkzeug des Betriebssystems und durch Priorisierung der entsprechenden Prozesse steuern.

19 Ob der Einsatz von Accent sinnvoll ist oder nicht, muss jeweils anhand der vorhandenen IT-Infrastruktur entschieden werden. Mithilfe spezieller Analyse-Tools lässt sich bereits im Vorfeld einschätzen, wie stark die CPU- Belastung auf dem Media- oder Backupserver vermutlich ausfallen würde und ob die nach vorne gezogene Deduplizierung die Datensicherung beschleunigt oder sie im Endeffekt eher hemmt. Daher kann der Administrator den Einsatz von Accent auf einzelne Server beschränken oder die Software auch auf mehreren Maschinen parallel laufen lassen. Disk und Tape ergänzen sich Media Server with DXi Accent Enabled Media Server with DXi Accent Enabled WAN connection to remote site Local LAN connection DXi6701/02 Media Server with DXi Accent Disabled Direct tape creation over FC for long-term retention Replication to DXi appliance for DR Die Datensicherung auf Band kann auf eine lange Geschichte verweisen. In den vergangenen Jahren schien sie jedoch gegenüber den D2D-Backups den Rückzug angetreten zu haben. Mittlerweile hat sich jedoch gezeigt, dass die neuen D2D-Verfahren dem Tape gewissermaßen sogar eine Bestandsgarantie gegeben haben. Disk-basierte Hardware wie die Quantum DXi erfüllt heute die Funktion einer Art Cache für Tape-Laufwerke wie die Scalar-Serie von Quantum. Die Festplatten halten die frisch gesicherten Daten bereit für schnelle Restore-Vorgänge. Die D2D-Sicherungen lassen sich weitgehend automatisieren die Appliances sind wartungsarm, und es müssen im Normalfall keine Medien ausgetauscht werden. Entsprechende Backup- Routinen eignen sich also auch für Außenstellen, die keine eigene IT-Abteilung beschäftigen. Für eine abschließende Archivierung können die Daten schließlich per WAN ins Rechenzentrum der Unternehmenszentrale übertragen werden. Häufig wird auf Disk-Devices ein Tiering organisiert: Die Datenblöcke werden automatisch auf preiswerte, jedoch weniger performante SATA-Platten gelegt, die Verwaltungsdatenbanken hält man auf schnellen, dafür allerdings teureren SSDs vor. Auf diese Weise erreicht man eine optimale Ausnutzung der vorhandenen Ressourcen. Mit Tape-Laufwerken kann man sozusagen noch ein weiteres Tier-Level hinzufügen. Tapes haben den Vorteil, dass sie Daten speichern, ohne dabei Strom zu verbrauchen. Hinzu kommt die hohe Kapazität: Die sechste Generation der LTO-Laufwerke kann die Bänder mit bis zu 8 Terabyte komprimierten Daten bestücken. Von einem ökonomischen Standpunkt aus gesehen sind sie daher bei langen Aufbewahrungsfristen den Festplatten überlegen. Hohe Sicherheit durch Verschlüsselung Die DXi Accent Software erlaubt, Backup- und/oder Media-Server aktiv am Deduplizierungsprozess zu beteiligen. So werden nur noch einzigartige Datenblöcke über das LAN oder WAN an die DXi Appliance gesendet. Hinzu kommt die hohe Sicherheit: Alle LTO-4- und LTO-5-Libraries verschlüsseln die Daten mit einem 256-Bit-AES-Algorithmus, die Daten sind daher mit Brute-Force-Attacken praktisch nicht lesbar zu machen. Um die aufwendige Verwaltung der Schlüssel zu vereinfachen, bietet Quantum die Scalar Key Manager Appliance an, die perfekt angepasst ist an die Tape-Libraries der Firma. Die Appliance generiert die Schlüssel, registriert die Zuordnungen zu den Bändern und synchronisiert die Schlüssel- Datenbanken zwischen den primären und den sekundären Appliances. Einmal eingerichtet, braucht sich der Administrator um das Schlüssel-Management nicht mehr zu kümmern. Ganz generell sorgt aber bereits schon der Technologiewechsel von Disk zu Tape für einen höheren Schutz der Daten. Durch den Wechsel von online verfügbaren Festplatten zu offline verwahrten Tapes werden die Datenbestände in einem kontinuierlichen Vorgang aus dem direkten Zugriff von Angreifern genommen. Einen Nachteil hat die Kombination aus D2D-Backup und Tape-Archivierung allerding doch: Die Daten müssen in zwei Durchläufen gesichert werden. Üblicherweise landen sie zunächst auf einer Virtual Tape Library (VTL) oder einem NAS-Device, anschließend werden sie auf Vision vereinheitlicht das Management für alle Quantum Disk-/Tape-Lösungen und liefert de taillierte Status der Systeme auch unterwegs für ios- und Android-basierte Mobilgeräte. Tapes übertragen. Der kontrollierende Backupserver wird daher doppelt belastet. Quantum hat daher mit Direct Path to Tape ein Verfahren entwickelt, um diesen Vorgang zu vereinfachen und zu beschleunigen. Der Server behält dabei trotzdem die Kontrolle über den gesamten Vorgang, initiiert und überwacht die Sicherungsläufe. Möglich machen das entsprechende Funktionen unter anderem in Symantec NetBackup, Backup Exec und EMC NetWorker. Mit Direct Path to Tape ergibt sich aber noch ein weiterer Vorteil: Solange ein Backup sowohl auf der DXi wie auf Tape vorliegen, lässt sich im Restore-Fall auswählen, von wo aus die Daten wiederhergestellt werden sollen. Oft ist dabei das Tape vorteilhafter, da schneller: Denn auf der DXi liegen die Daten dedupliziert vor, müssen also erst rekonstruiert werden. Sobald das Tape andererseits erst einmal eingelegt ist, lassen sich die Daten mit Transferraten von bis zu 100 MByte zurückkopieren. Eine noch tiefere Integration wird über die OpenStorage API von Symantec erreicht, um beispielsweise in Replikationsszenarien die komplette Kontrolle beim Backupserver zu belassen. Somit sind Szenarien wie Backup-to-Disk > Replikation > Disk-to-Tape automatisiert möglich. Der Administrator kann auch hier im Restore- Fall entscheiden, von welchem Tier er einen Restore starten möchte. Einheitliche Verwaltung Quantum bietet umfassende, aufeinander abgestimmte Lösungen für effiziente und wirtschaftliche Backups an. Um die verfügbaren Features der Hardware jedoch in vollem Umfang einsetzen zu können, braucht es auch eine entsprechende Software für die Steuerung und Verwaltung. Und auch die hat der Hersteller im Programm: Mit Quantum Vision lassen sich die Disk- und Tape-Devices über eine einheitliche Management-Oberfläche konfigurieren und über wachen, was dann zum Schluss die Effizienz der Quantum-Lösungen noch einmal erhöht. Weitere Informationen: TIM AG Tel xx 19 yy

20 Elanity Network Partner GmbH Hannover Tel. 0511/ URANO Informationssysteme GmbH Bad Kreuznach Tel. 0671/ INNEO Solutions GmbH Ellwangen Tel / Midland IT GmbH Minden Tel. 0571/ QOSIT Informationstechnik GmbH Siegen Tel. 0271/ Bechtle Logistik & Service GmbH Neckarsulm Tel / interface systems GmbH Dresden Tel. 0351/ unilab Systemhaus GmbH Paderborn Tel / ahd hellweg data GmbH & Co. KG Ense Tel / HWI Network Security e. K Teningen Tel / COMPAREX Deutschland AG Leipzig Tel. 0341/ DextraData GmbH Essen Tel. 0201/ Pan Dacom Networking AG Dreieich Tel / tproneth GmbH & Co. KG The Storage Company Puchheim Tel. 089/ Wichmann Datentechnik GmbH Sangerhausen Tel. 0345/ CNS Computer Network Systemengineering GmbH Gelsenkirchen-Buer Tel. 0209/ ITservices24 GmbH Alzenau Tel / NAVUM GmbH Stegen a. A. Tel / Kiefel Informationssysteme GmbH & Co. KG Frankenberg Tel / Global Information Distribution GmbH Köln Tel. 0821/ SAC GmbH Darmstadt Tel / SanData Solutions GmbH Garching Tel. 089/ ebunet e. Kfm Berlin Tel. 030/ dualutions Gmbh Köln Tel. 0221/ Concat AG Bensheim Tel / Systemzwo GmbH Ulm Tel. 0731/ Systema Gesellschaft für an gewandte Datentechnik mbh Potsdam Tel. 0331/ Logicalis Gmbh Köln Tel / Carpe diem Kommunikations- Technologie GmbH Wiesbaden Tel. 0611/ Schuster & Walther IT-Business GmbH Nürnberg Tel. 0911/ Friedrich Karl Schroeder GmbH & Co. KG Hamburg Tel. 040/ Pironet NDH AG Köln Tel. 0221/ CCP Condor Computer GmbH Stuttgart Tel. 0711/ teamix GmbH Nürnberg Tel. 0911/ TRAFFIX Network Partner GmbH Hamburg Tel. 040/ H & G, Hansen & Gieraths GmbH Bonn Tel. 0228/ manfred.wollweber@hug.de Stemmer GmbH Empfingen Tel / thomas.ummer@stemmer.de SWS Computersysteme AG Hauzenberg Tel / info@swsnet.de BASYS EDV-Systeme GmbH Bremen Tel. 0421/ vertrieb@basys-bremen.de anykey GmbH Bonn Tel / timm.aust@anykey.de am-computersysteme GmbH Nürtingen Tel / contact@am-computer.com HENRICHSEN AG Straubing Tel / info@henrichsen.de GRASS-MERKUR GmbH & Co. KG Hannover Tel. 0511/ info@grass-merkur.de IT-Haus GmbH Föhren Tel / SSicken@IT-HAUS.com TIM AG Wiesbaden Tel

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte I N F O R M A T I O N V I R T U A L I S I E R U N G Wir schützen Ihre Unternehmenswerte Wir schützen Ihre Unternehmenswerte Ausfallsicherheit durch Virtualisierung Die heutigen Anforderungen an IT-Infrastrukturen

Mehr

Dell Data Protection Solutions Datensicherungslösungen von Dell

Dell Data Protection Solutions Datensicherungslösungen von Dell Dell Data Protection Solutions Datensicherungslösungen von Dell André Plagemann SME DACH Region SME Data Protection DACH Region Dell Softwarelösungen Vereinfachung der IT. Minimierung von Risiken. Schnellere

Mehr

Klicken. Microsoft. Ganz einfach.

Klicken. Microsoft. Ganz einfach. EMC UNIFIED STORAGE FÜR VIRTUALISIERTE MICROSOFT- ANWENDUNGEN Klicken. Microsoft. Ganz einfach. Microsoft SQL Server Microsoft SQL Server-Datenbanken bilden die Basis für die geschäftskritischen Anwendungen

Mehr

3 Windows als Storage-Zentrale

3 Windows als Storage-Zentrale 3 Windows als Storage-Zentrale Windows als zentrale Datenspeichereinheit punktet gegenüber anderen Lösungen vor allem bei der Integration in vorhandene Unternehmensnetze sowie bei der Administration. Dabei

Mehr

Spotlight 5 Gründe für die Sicherung auf NAS-Geräten

Spotlight 5 Gründe für die Sicherung auf NAS-Geräten Spotlight 5 Gründe für die Sicherung auf NAS-Geräten NovaStor Inhaltsverzeichnis Skalierbar. Von klein bis komplex.... 3 Kein jonglieren mehr mit Wechselmedien... 3 Zentralisiertes Backup... 4 Datensicherheit,

Mehr

Technische Anwendungsbeispiele

Technische Anwendungsbeispiele Technische Anwendungsbeispiele NovaBACKUP NAS Ihre Symantec Backup Exec Alternative www.novastor.de 1 Über NovaBACKUP NAS NovaBACKUP NAS sichert und verwaltet mehrere Server in einem Netzwerk. Die Lösung

Mehr

In 15 einfachen Schritten zum mobilen PC mit Paragon Drive Copy 10 und Microsoft Windows Virtual PC

In 15 einfachen Schritten zum mobilen PC mit Paragon Drive Copy 10 und Microsoft Windows Virtual PC PARAGON Technologie GmbH, Systemprogrammierung Heinrich-von-Stephan-Str. 5c 79100 Freiburg, Germany Tel. +49 (0) 761 59018201 Fax +49 (0) 761 59018130 Internet www.paragon-software.com Email sales@paragon-software.com

Mehr

Gesetzliche Aufbewahrungspflicht für E-Mails

Gesetzliche Aufbewahrungspflicht für E-Mails Gesetzliche Aufbewahrungspflicht für E-Mails sind Sie vorbereitet? Vortragsveranstaltung TOP AKTUELL Meins und Vogel GmbH, Plochingen Dipl.-Inf. Klaus Meins Dipl.-Inf. Oliver Vogel Meins & Vogel GmbH,

Mehr

Lizenzierung von System Center 2012

Lizenzierung von System Center 2012 Lizenzierung von System Center 2012 Mit den Microsoft System Center-Produkten lassen sich Endgeräte wie Server, Clients und mobile Geräte mit unterschiedlichen Betriebssystemen verwalten. Verwalten im

Mehr

System Center Essentials 2010

System Center Essentials 2010 System Center Essentials 2010 Microsoft System Center Essentials 2010 (Essentials 2010) ist eine neue Verwaltungslösung aus der System Center-Produktfamilie, die speziell für mittelständische Unternehmen

Mehr

IT-Lösungsplattformen

IT-Lösungsplattformen IT-Lösungsplattformen - Server-Virtualisierung - Desktop-Virtualisierung - Herstellervergleiche - Microsoft Windows 2008 für KMU s Engineering engineering@arcon.ch ABACUS Kundentagung, 20.11.2008 1 Agenda

Mehr

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem Fachbericht zum Thema: Anforderungen an ein Datenbanksystem von André Franken 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 2 Einführung 2 2.1 Gründe für den Einsatz von DB-Systemen 2 2.2 Definition: Datenbank

Mehr

4 Planung von Anwendungsund

4 Planung von Anwendungsund Einführung 4 Planung von Anwendungsund Datenbereitstellung Prüfungsanforderungen von Microsoft: Planning Application and Data Provisioning o Provision applications o Provision data Lernziele: Anwendungen

Mehr

Wir bringen Ihre USB Geräte ins Netz Ohne Wenn und Aber!

Wir bringen Ihre USB Geräte ins Netz Ohne Wenn und Aber! Wir bringen Ihre USB Geräte ins Netz Ohne Wenn und Aber! USB Device Server myutn-50 myutn-52 myutn-54 myutn-120 myutn-130 myutn-150 Dongleserver auch für virtualisierte Umgebungen 2 3 Für jeden Anspruch

Mehr

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG!

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! JUNI 2011 Sehr geehrter Geschäftspartner, (oder die, die es gerne werden möchten) das Thema Virtualisierung oder die Cloud ist in aller Munde wir möchten Ihnen

Mehr

Avira Management Console 2.6.1 Optimierung für großes Netzwerk. Kurzanleitung

Avira Management Console 2.6.1 Optimierung für großes Netzwerk. Kurzanleitung Avira Management Console 2.6.1 Optimierung für großes Netzwerk Kurzanleitung Inhaltsverzeichnis 1. Einleitung... 3 2. Aktivieren des Pull-Modus für den AMC Agent... 3 3. Ereignisse des AMC Agent festlegen...

Mehr

Installation SQL- Server 2012 Single Node

Installation SQL- Server 2012 Single Node Installation SQL- Server 2012 Single Node Dies ist eine Installationsanleitung für den neuen SQL Server 2012. Es beschreibt eine Single Node Installation auf einem virtuellen Windows Server 2008 R2 mit

Mehr

In 12 Schritten zum mobilen PC mit Paragon Drive Copy 11 und Microsoft Windows Virtual PC

In 12 Schritten zum mobilen PC mit Paragon Drive Copy 11 und Microsoft Windows Virtual PC PARAGON Technologie GmbH, Systemprogrammierung Heinrich-von-Stephan-Str. 5c 79100 Freiburg, Germany Tel. +49 (0) 761 59018201 Fax +49 (0) 761 59018130 Internet www.paragon-software.com Email sales@paragon-software.com

Mehr

WAN Beschleunigung schneller Datentransport, kurze Backupfenster

WAN Beschleunigung schneller Datentransport, kurze Backupfenster Beschleunigung schneller Datentransport, kurze Backupfenster connecting different worlds Christian Hansmann Beschleunigung schneller Datentransport, kurze Backupfenster Begrüßung, Vorstellung Herausforderungen

Mehr

Bewertung der Methoden zur Sicherung von virtuellen Maschinen (VMware, Hyper-V) Ein Erfahrungsbericht

Bewertung der Methoden zur Sicherung von virtuellen Maschinen (VMware, Hyper-V) Ein Erfahrungsbericht Bewertung der Methoden zur Sicherung von virtuellen Maschinen (VMware, Hyper-V) Ein Erfahrungsbericht Jens Appel (Consultant) Jens.Appel@interface-systems.de interface business GmbH Zwinglistraße 11/13

Mehr

Verwalten und Organisieren von Fotos,

Verwalten und Organisieren von Fotos, Verwalten und Organisieren von Fotos, Datensicherung auf einen externen Datenträger durchführen, Datensicherung auf externe Datenträger - Datensicherheit Grundsätze 02 - Sicherungsmethode / FreeCommander

Mehr

Datensicherung. Beschreibung der Datensicherung

Datensicherung. Beschreibung der Datensicherung Datensicherung Mit dem Datensicherungsprogramm können Sie Ihre persönlichen Daten problemlos Sichern. Es ist möglich eine komplette Datensicherung durchzuführen, aber auch nur die neuen und geänderten

Mehr

GFAhnen Datensicherung und Datenaustausch

GFAhnen Datensicherung und Datenaustausch GFAhnen Datensicherung und Datenaustausch In dieser Anleitung wird das Daten Sicheren, das Daten Wiederherstellen und der Datenaustausch zwischen 2 Rechner beschrieben. Eine regelmäßige Datensicherung

Mehr

Datensicherung EBV für Mehrplatz Installationen

Datensicherung EBV für Mehrplatz Installationen Datensicherung EBV für Mehrplatz Installationen Bitte beachten Sie EBV 3.4 bietet Ihnen die Möglichkeit eine regelmäßige Sicherung der Daten vorzunehmen. Wir möchten Sie darauf hinweisen, dass Sie für

Mehr

WIE ERHÖHT MAN DIE EFFIZIENZ DES BESTEHENDEN RECHENZENTRUMS UM 75% AK Data Center - eco e.v. 1. Dezember 2009

WIE ERHÖHT MAN DIE EFFIZIENZ DES BESTEHENDEN RECHENZENTRUMS UM 75% AK Data Center - eco e.v. 1. Dezember 2009 WIE ERHÖHT MAN DIE EFFIZIENZ DES BESTEHENDEN RECHENZENTRUMS UM 75% AK Data Center - eco e.v. 1. Dezember 2009 HOST EUROPE GROUP Größter Anbieter von standardisierten Managed Hosting Lösungen in Deutschland

Mehr

Test zur Bereitschaft für die Cloud

Test zur Bereitschaft für die Cloud Bericht zum EMC Test zur Bereitschaft für die Cloud Test zur Bereitschaft für die Cloud EMC VERTRAULICH NUR ZUR INTERNEN VERWENDUNG Testen Sie, ob Sie bereit sind für die Cloud Vielen Dank, dass Sie sich

Mehr

OLXTeamOutlook 1.5 für Outlook 2003, 2002/XP, 2000 und 97/98

OLXTeamOutlook 1.5 für Outlook 2003, 2002/XP, 2000 und 97/98 OLXTeamOutlook 1.5 für Outlook 2003, 2002/XP, 2000 und 97/98 Neue Version: Outlook-Termine, Kontakte, Mails usw. ohne Exchange-Server auf mehreren Rechnern nutzen! Mit der neuesten Generation intelligenter

Mehr

... 64 bit Televaulting

... 64 bit Televaulting Next Generation Backup und Recovery Software... 64 bit Televaulting Kronberg, 07. Mai 2007 Asigra, der Technologieführer im Bereich agentless Backup und Recovery- für Unternehmen und Service Provider,

Mehr

AdmiCash - Datenpflege

AdmiCash - Datenpflege AdmiCash - Datenpflege Grundlegende Funktionen der Datenpflege in AdmiCash Es kommt immer wieder vor, dass AdmiCash - Anwender die Ordnerstruktur der AdmiCash - Daten manuell anpassen. Da es sich um private

Mehr

Storage as a Service im DataCenter

Storage as a Service im DataCenter Storage as a Service im DataCenter Agenda Definition Storage as a Service Storage as a Service und IT-Sicherheit Anwendungsmöglichkeiten und Architektur einer Storage as a Service Lösung Datensicherung

Mehr

windream für Microsoft Office SharePoint Server

windream für Microsoft Office SharePoint Server windream für Microsoft Office SharePoint Server Geschäftprozesse und Formulare Business Intelligence Enterprise Content Management Zusammenarbeit Unternehmensweite Suche Portale Integration, Interaktion,

Mehr

Disaster Recovery/Daily Backup auf Basis der Netapp-SnapManager. interface:systems

Disaster Recovery/Daily Backup auf Basis der Netapp-SnapManager. interface:systems Disaster Recovery/Daily Backup auf Basis der Netapp-SnapManager interface:systems Frank Friebe Consultant Microsoft frank.friebe@interface-systems.de Agenda Warum Backup mit NetApp? SnapManager für Wie

Mehr

1. Einführung. 2. Archivierung alter Datensätze

1. Einführung. 2. Archivierung alter Datensätze 1. Einführung Mit wachsender Datenmenge und je nach Konfiguration, kann orgamax mit der Zeit langsamer werden. Es gibt aber diverse Möglichkeiten, die Software wieder so zu beschleunigen, als würden Sie

Mehr

Systemvoraussetzungen NovaBACKUP 17.6 Die Komplettlösung für Windows Server Backup

Systemvoraussetzungen NovaBACKUP 17.6 Die Komplettlösung für Windows Server Backup Backup wie für mich gemacht. Systemvoraussetzungen NovaBACKUP 17.6 Die Komplettlösung für Windows Server Backup April 2016 Inhalt NovaBACKUP PC, Server & Business Essentials... 3 Systemanforderungen...

Mehr

Er musste so eingerichtet werden, dass das D-Laufwerk auf das E-Laufwerk gespiegelt

Er musste so eingerichtet werden, dass das D-Laufwerk auf das E-Laufwerk gespiegelt Inhaltsverzeichnis Aufgabe... 1 Allgemein... 1 Active Directory... 1 Konfiguration... 2 Benutzer erstellen... 3 Eigenes Verzeichnis erstellen... 3 Benutzerkonto erstellen... 3 Profil einrichten... 5 Berechtigungen

Mehr

Memeo Instant Backup Kurzleitfaden. Schritt 1: Richten Sie Ihr kostenloses Memeo-Konto ein

Memeo Instant Backup Kurzleitfaden. Schritt 1: Richten Sie Ihr kostenloses Memeo-Konto ein Einleitung Memeo Instant Backup ist eine einfache Backup-Lösung für eine komplexe digitale Welt. Durch automatisch und fortlaufende Sicherung Ihrer wertvollen Dateien auf Ihrem Laufwerk C:, schützt Memeo

Mehr

Der beste Plan für Office 365 Archivierung.

Der beste Plan für Office 365 Archivierung. Der beste Plan für Office 365 Archivierung. Der Einsatz einer externen Archivierungslösung wie Retain bietet Office 365 Kunden unabhängig vom Lizenzierungsplan viele Vorteile. Einsatzszenarien von Retain:

Mehr

Eigene Dokumente, Fotos, Bilder etc. sichern

Eigene Dokumente, Fotos, Bilder etc. sichern Eigene Dokumente, Fotos, Bilder etc. sichern Solange alles am PC rund läuft, macht man sich keine Gedanken darüber, dass bei einem Computer auch mal ein technischer Defekt auftreten könnte. Aber Grundsätzliches

Mehr

Backup Premium Kurzleitfaden

Backup Premium Kurzleitfaden Info Memeo Backup Premium bietet viele fortschrittliche automatische Backup-Funktionen und ist großartig für Benutzer von Digitalkameras und für Anwender, die bis zu 50.000 Dateien mit Backups sichern

Mehr

Glück ist keine Strategie für Ihre Datensicherheit

Glück ist keine Strategie für Ihre Datensicherheit Glück ist keine Strategie für Ihre Datensicherheit aber ist eine warum ONLINE / HYBRID besser ist Backups über Bandlaufwerke erfolgen meist manuell gesteuert, was unausweichlich versäumte Backups und

Mehr

egs Storage Offensive

egs Storage Offensive egs Storage Offensive Seit mittlerweile 5 Jahren können wir eine enge Partnerschaft zwischen der egs Netzwerk und Computersysteme GmbH und dem führenden Anbieter im Bereich Datenmanagement NetApp vorweisen.

Mehr

Wo finde ich die Software? - Jedem ProLiant Server liegt eine Management CD bei. - Über die Internetseite http://www.hp.

Wo finde ich die Software? - Jedem ProLiant Server liegt eine Management CD bei. - Über die Internetseite http://www.hp. Erfahrungen mit dem Insight Manager von HP Dipl. Ing. Elektrotechnik (FH) - Automatisierungs- / Regelungstechnik DV-Spezialist Landesbank Rheinland-Pfalz Abteilung 2-351 Große Bleiche 54-56 55098 Mainz

Mehr

Leistungsstarke Enterprise Apps. Für Menschen erdacht. Für Veränderungen entwickelt.

Leistungsstarke Enterprise Apps. Für Menschen erdacht. Für Veränderungen entwickelt. Plattform, Apps und App-Entwicklung Onit Apps für Ihr Unternehmen App [ap] Nomen Computer, informell 1. Anwendung (in der Regel ein kleines spezialisiertes Programm), die auf Mobilgeräte heruntergeladen

Mehr

Windows Server 2012 R2 Essentials & Hyper-V

Windows Server 2012 R2 Essentials & Hyper-V erklärt: Windows Server 2012 R2 Essentials & Hyper-V Windows Server 2012 R2 Essentials bietet gegenüber der Vorgängerversion die Möglichkeit, mit den Boardmitteln den Windows Server 2012 R2 Essentials

Mehr

ANYWHERE Zugriff von externen Arbeitsplätzen

ANYWHERE Zugriff von externen Arbeitsplätzen ANYWHERE Zugriff von externen Arbeitsplätzen Inhaltsverzeichnis 1 Leistungsbeschreibung... 3 2 Integration Agenda ANYWHERE... 4 3 Highlights... 5 3.1 Sofort einsatzbereit ohne Installationsaufwand... 5

Mehr

Lizenzen auschecken. Was ist zu tun?

Lizenzen auschecken. Was ist zu tun? Use case Lizenzen auschecken Ihr Unternehmen hat eine Netzwerk-Commuterlizenz mit beispielsweise 4 Lizenzen. Am Freitag wollen Sie Ihren Laptop mit nach Hause nehmen, um dort am Wochenende weiter zu arbeiten.

Mehr

Einrichten einer Festplatte mit FDISK unter Windows 95/98/98SE/Me

Einrichten einer Festplatte mit FDISK unter Windows 95/98/98SE/Me Einrichten einer Festplatte mit FDISK unter Windows 95/98/98SE/Me Bevor Sie die Platte zum ersten Mal benutzen können, muss sie noch partitioniert und formatiert werden! Vorher zeigt sich die Festplatte

Mehr

Guide DynDNS und Portforwarding

Guide DynDNS und Portforwarding Guide DynDNS und Portforwarding Allgemein Um Geräte im lokalen Netzwerk von überall aus über das Internet erreichen zu können, kommt man um die Themen Dynamik DNS (kurz DynDNS) und Portweiterleitung(auch

Mehr

DATENSICHERUNG IM UNTERNEHMEN. Mit highspeed Online-Backup sichern Sie Ihre Daten verlässlich und schnell.

DATENSICHERUNG IM UNTERNEHMEN. Mit highspeed Online-Backup sichern Sie Ihre Daten verlässlich und schnell. DATENSICHERUNG IM UNTERNEHMEN Mit highspeed Online-Backup sichern Sie Ihre Daten verlässlich und schnell. DATENVERFÜGBARKEIT IST GESCHÄFTSKRITISCH Wenn Kundendaten oder Rechnungsinformationen auf einmal

Mehr

Wichtige Hinweise zu den neuen Orientierungshilfen der Architekten-/Objektplanerverträge

Wichtige Hinweise zu den neuen Orientierungshilfen der Architekten-/Objektplanerverträge Wichtige Hinweise zu den neuen Orientierungshilfen der Architekten-/Objektplanerverträge Ab der Version forma 5.5 handelt es sich bei den Orientierungshilfen der Architekten-/Objektplanerverträge nicht

Mehr

Rechtssichere E-Mail-Archivierung

Rechtssichere E-Mail-Archivierung Rechtssichere E-Mail-Archivierung Einfach und sicher als Managed Service Vorteile für Ihr Unternehmen Rechtliche Sicherheit Geltende rechtliche Anforderungen zwingen jedes Unternehmen, E-Mails über viele

Mehr

Windows 8 Lizenzierung in Szenarien

Windows 8 Lizenzierung in Szenarien Windows 8 Lizenzierung in Szenarien Windows Desktop-Betriebssysteme kommen in unterschiedlichen Szenarien im Unternehmen zum Einsatz. Die Mitarbeiter arbeiten an Unternehmensgeräten oder bringen eigene

Mehr

Reporting Services und SharePoint 2010 Teil 1

Reporting Services und SharePoint 2010 Teil 1 Reporting Services und SharePoint 2010 Teil 1 Abstract Bei der Verwendung der Reporting Services in Zusammenhang mit SharePoint 2010 stellt sich immer wieder die Frage bei der Installation: Wo und Wie?

Mehr

Schritt-Schritt-Anleitung zum mobilen PC mit Paragon Drive Copy 10 und VMware Player

Schritt-Schritt-Anleitung zum mobilen PC mit Paragon Drive Copy 10 und VMware Player PARAGON Technologie GmbH, Systemprogrammierung Heinrich-von-Stephan-Str. 5c 79100 Freiburg, Germany Tel. +49 (0) 761 59018201 Fax +49 (0) 761 59018130 Internet www.paragon-software.com Email sales@paragon-software.com

Mehr

So funktioniert die NetWorker 7.5 Eigenschaft zum Sichern umbenannter Verzeichnisse ( Backup renamed Directories )

So funktioniert die NetWorker 7.5 Eigenschaft zum Sichern umbenannter Verzeichnisse ( Backup renamed Directories ) NetWorker 7.5.0 - Allgemein Tip 8, Seite 1/7 So funktioniert die NetWorker 7.5 Eigenschaft zum Sichern umbenannter Verzeichnisse ( Backup renamed Directories ) Bisher war es der NetWorker Client Software

Mehr

Virtual Desktop Infrasstructure - VDI

Virtual Desktop Infrasstructure - VDI Virtual Desktop Infrasstructure - VDI Jörg Kastning Universität Bielefeld Hochschulrechenzentrum 5. August 2015 1/ 17 Inhaltsverzeichnis Was versteht man unter VDI? Welchen Nutzen bringt VDI? Wie funktioniert

Mehr

Hardware, Peripherie Datensicherung / Backup

Hardware, Peripherie Datensicherung / Backup Frage: Hardware, Peripherie Datensicherung / Backup Wozu eine Datensicherung? Wie wird diese umgesetzt und durchgeführt? Antwort: Gründe für eine Datensicherung: Die Datensicherung ist ein wesentlicher

Mehr

2 Datei- und Druckdienste

2 Datei- und Druckdienste Datei- und Druckdienste 2 Datei- und Druckdienste Lernziele: Verteiltes Dateisystem (DFS) Dateiserver Ressourcen Manager (FSRM) Verschlüsseln Erweiterte Überwachung Prüfungsanforderungen von Microsoft:

Mehr

Manage The Cloud! Installation, Administration, Migration und Automation über eine einzige Konsole: Azure Citrix Hyper-V RDS VMware...

Manage The Cloud! Installation, Administration, Migration und Automation über eine einzige Konsole: Azure Citrix Hyper-V RDS VMware... Manage The Cloud! Installation, Administration, Migration und Automation über eine einzige Konsole: Azure Citrix Hyper-V RDS VMware... Verschiedenste Technologien von unterschiedlichen Herstellern. Also

Mehr

ShadowProtect 4 Backup Fast, Recover Faster

ShadowProtect 4 Backup Fast, Recover Faster ShadowProtect 4 Backup Fast, Recover Faster Schnelles und zuverlässiges Disaster Recovery, Datenschutz, System Migration und einfachere Verwaltung von Microsoft Systemen Üebersicht Nutzen / Vorteile Wie

Mehr

Lizenzierung von SharePoint Server 2013

Lizenzierung von SharePoint Server 2013 Lizenzierung von SharePoint Server 2013 Das Lizenzmodell von SharePoint Server 2013 besteht aus zwei Komponenten: Serverlizenzen zur Lizenzierung der Serversoftware und CALs zur Lizenzierung der Zugriffe

Mehr

PQ Explorer. Netzübergreifende Power Quality Analyse. Copyright by Enetech 2000-2010 www.enetech.de Alle Rechte vorbehalten. ros@enetech.

PQ Explorer. Netzübergreifende Power Quality Analyse. Copyright by Enetech 2000-2010 www.enetech.de Alle Rechte vorbehalten. ros@enetech. 1 PQ Explorer Netzübergreifende Power Quality Analyse 2 Ortsunabhängige Analyse: so einfach, wie noch nie PQ-Explorer ist ein Instrument, das die Kontrolle und Überwachung von Energieversorgungsnetzen

Mehr

Platz 2: "Massenspeicher"

Platz 2: Massenspeicher Platz 2: "Massenspeicher" Server20 WINDOWS 2000 Server 192.168.1.20 - Speicherung von Daten auf einem Bandspeicher - Backup von Daten auf anderen Speichermedien (Ziplaufwerk) - Zeitlich versetzte Speicherung

Mehr

Formular»Fragenkatalog BIM-Server«

Formular»Fragenkatalog BIM-Server« Formular»Fragenkatalog BIM-Server«Um Ihnen so schnell wie möglich zu helfen, benötigen wir Ihre Mithilfe. Nur Sie vor Ort kennen Ihr Problem, und Ihre Installationsumgebung. Bitte füllen Sie dieses Dokument

Mehr

ProSeminar Speicher- und Dateisysteme

ProSeminar Speicher- und Dateisysteme ProSeminar Speicher- und Dateisysteme Netzwerkspeichersysteme Mirko Köster 1 / 34 Inhalt 1. Einleitung / Motivation 2. Einsatzgebiete 3. Fileserver 4. NAS 5. SAN 6. Cloud 7. Vergleich / Fazit 8. Quellen

Mehr

Februar Newsletter der all4it AG

Februar Newsletter der all4it AG Februar Newsletter der all4it AG Geschätzter Kunde, gerne möchte ich Sie über die ersten neuen Produkte welche bei der all4it AG erhältlich sind Informieren. Verschärfte gesetzliche Rahmenbedingungen sowie

Mehr

Der einfache Weg zu Sicherheit

Der einfache Weg zu Sicherheit Der einfache Weg zu Sicherheit BUSINESS SUITE Ganz einfach den Schutz auswählen Die Wahl der passenden IT-Sicherheit für ein Unternehmen ist oft eine anspruchsvolle Aufgabe und umfasst das schier endlose

Mehr

NEWSLETTER // AUGUST 2015

NEWSLETTER // AUGUST 2015 NEWSLETTER // AUGUST 2015 Kürzlich ist eine neue Version von SoftwareCentral erschienen, die neue Version enthält eine Reihe von Verbesserungen und neuen Funktionen die das Arbeiten mit SCCM noch einfacher

Mehr

Arbeiten mit dem neuen WU Fileshare unter Windows 7

Arbeiten mit dem neuen WU Fileshare unter Windows 7 Arbeiten mit dem neuen WU Fileshare unter Windows 7 Mit dem neuen WU Fileshare bieten Ihnen die IT-Services einen flexibleren und einfacheren Zugriff auf Ihre Dateien unabhängig davon, ob Sie sich im Büro

Mehr

DATENSICHERUNG MOBILE ENDGERÄTE

DATENSICHERUNG MOBILE ENDGERÄTE DATENSICHERUNG MOBILE ENDGERÄTE mobile Endgeräte 1 ALLGEMEINES (englisch backup) bezeichnet das Kopieren von Daten, um diese im Fall eines Datenverlustes zurückkopieren zu können. Gesicherte Daten werden

Mehr

WORKSHOP VEEAM ENDPOINT BACKUP FREE

WORKSHOP VEEAM ENDPOINT BACKUP FREE WORKSHOP VEEAM ENDPOINT BACKUP FREE Haftungsausschluss Ich kann für die Richtigkeit der Inhalte keine Garantie übernehmen. Auch für Fehler oder Schäden die aus den Übungen entstehen, übernehme ich keine

Mehr

Upgrade auf die Standalone Editionen von Acronis Backup & Recovery 10. Technische Informationen (White Paper)

Upgrade auf die Standalone Editionen von Acronis Backup & Recovery 10. Technische Informationen (White Paper) Upgrade auf die Standalone Editionen von Acronis Backup & Recovery 10 Technische Informationen (White Paper) Inhaltsverzeichnis 1. Über dieses Dokument... 3 2. Überblick... 3 3. Upgrade Verfahren... 4

Mehr

Der Support für Windows Server 2003 endet endgültig alles was Ihnen dann noch bleibt ist diese Broschüre.

Der Support für Windows Server 2003 endet endgültig alles was Ihnen dann noch bleibt ist diese Broschüre. Der Support für Windows Server 2003 endet endgültig alles was Ihnen dann noch bleibt ist diese Broschüre. 14. Juli 2015. Der Tag, an dem in Ihrem Unternehmen das Licht ausgehen könnte. An diesem Tag stellt

Mehr

HMK Open Day 28. Januar 2009 Kronberg. Hierarchisches Storage Management mit SUN SAM-FS

HMK Open Day 28. Januar 2009 Kronberg. Hierarchisches Storage Management mit SUN SAM-FS HMK Open Day 28. Januar 2009 Kronberg Hierarchisches Storage Management mit SUN SAM-FS Die Herausforderungen Verwalten Sie große Datenmengen? Müssen Sie tagtäglich Ihre SLAs erfüllen? Wächst Ihr Datenbestand

Mehr

OP-LOG www.op-log.de

OP-LOG www.op-log.de Verwendung von Microsoft SQL Server, Seite 1/18 OP-LOG www.op-log.de Anleitung: Verwendung von Microsoft SQL Server 2005 Stand Mai 2010 1 Ich-lese-keine-Anleitungen 'Verwendung von Microsoft SQL Server

Mehr

Avira Server Security Produktupdates. Best Practice

Avira Server Security Produktupdates. Best Practice Avira Server Security Produktupdates Best Practice Inhaltsverzeichnis 1. Was ist Avira Server Security?... 3 2. Wo kann Avira Server Security sonst gefunden werden?... 3 3. Was ist der Unterschied zwischen

Mehr

DATENSICHERUNG / BACKUP. Backupstrategien

DATENSICHERUNG / BACKUP. Backupstrategien DATENSICHERUNG / BACKUP Backupstrategien DATENSICHERUNG WAS IST WAS? Backup Ein Backup ist eine Sicherheitskopie von Daten für den Fall eines unerwarteten Verlusts Archivierung Aufbewahrung von Daten um

Mehr

Win 7 optimieren. Unser Thema heute: Meine erstellten Daten in eine andere Partition verschieben.

Win 7 optimieren. Unser Thema heute: Meine erstellten Daten in eine andere Partition verschieben. Win 7 optimieren Unser Thema heute: Meine erstellten Daten in eine andere Partition verschieben. Gliederung Standardmäßige Vorgaben von MS Win7. Warum Daten verschieben? Welche Vorteile bringt die Datenverschiebung?

Mehr

Stammdaten Auftragserfassung Produktionsbearbeitung Bestellwesen Cloud Computing

Stammdaten Auftragserfassung Produktionsbearbeitung Bestellwesen Cloud Computing Stammdaten Auftragserfassung Produktionsbearbeitung Bestellwesen Cloud Computing Finanzbuchhaltung Wenn Sie Fragen haben, dann rufen Sie uns an, wir helfen Ihnen gerne weiter - mit Ihrem Wartungsvertrag

Mehr

How to do? Projekte - Zeiterfassung

How to do? Projekte - Zeiterfassung How to do? Projekte - Zeiterfassung Stand: Version 4.0.1, 18.03.2009 1. EINLEITUNG...3 2. PROJEKTE UND STAMMDATEN...4 2.1 Projekte... 4 2.2 Projektmitarbeiter... 5 2.3 Tätigkeiten... 6 2.4 Unterprojekte...

Mehr

Eigenen WSUS Server mit dem UNI WSUS Server Synchronisieren

Eigenen WSUS Server mit dem UNI WSUS Server Synchronisieren Verwaltungsdirektion Informatikdienste Eigenen WSUS Server mit dem UNI WSUS Server Synchronisieren Inhaltsverzeichnis Einleitung... 3 Installation WSUS Server... 4 Dokumente... 4 Step by Step Installation...

Mehr

Vorstellung SimpliVity. Tristan P. Andres Senior IT Consultant

Vorstellung SimpliVity. Tristan P. Andres Senior IT Consultant Vorstellung SimpliVity Tristan P. Andres Senior IT Consultant Agenda Wer ist SimpliVity Was ist SimpliVity Wie funktioniert SimpliVity Vergleiche vsan, vflash Read Cache und SimpliVity Gegründet im Jahr

Mehr

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. 7 Key Features.

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. 7 Key Features. Inhalt 1 Übersicht 2 Anwendungsbeispiele 3 Einsatzgebiete 4 Systemanforderungen 5 Lizenzierung 6 Installation 7 Key Features Seite 2 von 11 1. Übersicht MIK.mobile for ipad ist eine Business Intelligence

Mehr

Die Dateiablage Der Weg zur Dateiablage

Die Dateiablage Der Weg zur Dateiablage Die Dateiablage In Ihrem Privatbereich haben Sie die Möglichkeit, Dateien verschiedener Formate abzulegen, zu sortieren, zu archivieren und in andere Dateiablagen der Plattform zu kopieren. In den Gruppen

Mehr

4D Server v12 64-bit Version BETA VERSION

4D Server v12 64-bit Version BETA VERSION 4D Server v12 64-bit Version BETA VERSION 4D Server v12 unterstützt jetzt das Windows 64-bit Betriebssystem. Hauptvorteil der 64-bit Technologie ist die rundum verbesserte Performance der Anwendungen und

Mehr

Die maßgeschneiderte IT-Infrastruktur aus der Südtiroler Cloud

Die maßgeschneiderte IT-Infrastruktur aus der Südtiroler Cloud Die maßgeschneiderte IT-Infrastruktur aus der Südtiroler Cloud Sie konzentrieren sich auf Ihr Kerngeschäft und RUN AG kümmert sich um Ihre IT-Infrastruktur. Vergessen Sie das veraltetes Modell ein Server,

Mehr

2 Die Terminaldienste Prüfungsanforderungen von Microsoft: Lernziele:

2 Die Terminaldienste Prüfungsanforderungen von Microsoft: Lernziele: 2 Die Terminaldienste Prüfungsanforderungen von Microsoft: Configuring Terminal Services o Configure Windows Server 2008 Terminal Services RemoteApp (TS RemoteApp) o Configure Terminal Services Gateway

Mehr

Integration mit. Wie AristaFlow Sie in Ihrem Unternehmen unterstützen kann, zeigen wir Ihnen am nachfolgenden Beispiel einer Support-Anfrage.

Integration mit. Wie AristaFlow Sie in Ihrem Unternehmen unterstützen kann, zeigen wir Ihnen am nachfolgenden Beispiel einer Support-Anfrage. Integration mit Die Integration der AristaFlow Business Process Management Suite (BPM) mit dem Enterprise Information Management System FILERO (EIMS) bildet die optimale Basis für flexible Optimierung

Mehr

Neue Studie zum digitalen Universum entdeckt Big Data Gap

Neue Studie zum digitalen Universum entdeckt Big Data Gap 13. Dezember 2012 Neue Studie zum digitalen Universum entdeckt Big Data Gap Big Data Gap 23 Prozent (643 Exabyte) des digitalen Universums könnten nützliche Erkenntnisse bringen. Derzeit sind nur drei

Mehr

Einrichtung des Cisco VPN Clients (IPSEC) in Windows7

Einrichtung des Cisco VPN Clients (IPSEC) in Windows7 Einrichtung des Cisco VPN Clients (IPSEC) in Windows7 Diese Verbindung muss einmalig eingerichtet werden und wird benötigt, um den Zugriff vom privaten Rechner oder der Workstation im Home Office über

Mehr

backupmyfilestousb ==> Datensicherung auf USB Festplatte

backupmyfilestousb ==> Datensicherung auf USB Festplatte Diese Präsentation zeigt Ihnen den Vergleich von mit anderen Datensicherungsverfahren. Backupmyfilestousb ist eine Software für Datensicherung, mit der Sie Ihre Daten täglich oder mehrmals täglich auf

Mehr

Thema: Microsoft Project online Welche Version benötigen Sie?

Thema: Microsoft Project online Welche Version benötigen Sie? Seit einiger Zeit gibt es die Produkte Microsoft Project online, Project Pro für Office 365 und Project online mit Project Pro für Office 365. Nach meinem Empfinden sind die Angebote nicht ganz eindeutig

Mehr

MSXFORUM - Exchange Server 2003 > Backup (Sicherung von Exchange 2003)

MSXFORUM - Exchange Server 2003 > Backup (Sicherung von Exchange 2003) Page 1 of 10 Backup (Sicherung von Exchange 2003) Kategorie : Exchange Server 2003 Veröffentlicht von webmaster am 21.02.2005 Die Implementierung eines Backups für die Exchange Server, ist einer der wichtigsten

Mehr

WINDOWS 8 WINDOWS SERVER 2012

WINDOWS 8 WINDOWS SERVER 2012 WINDOWS 8 WINDOWS SERVER 2012 IT Fachforum 2012 :: 24.09.-27.09.2012 Andreas Götzfried IT Fachforum::Agenda Windows 8 Windows Server 2012 Zertifizierung WINDOWS 8 Schöne neue Welt Andreas Götzfried Windows

Mehr

Zuverlässiger IT-Service und Support Wir haben Ihr EDV-System im Griff.

Zuverlässiger IT-Service und Support Wir haben Ihr EDV-System im Griff. Zuverlässiger IT-Service und Support Wir haben Ihr EDV-System im Griff. Überblick über unser Leistungsspektrum Wir kümmern uns um Ihre EDV-Anlage. Die IT muss laufen, zu jeder Zeit. Das ist die Anforderung

Mehr

IBM Software Demos Tivoli Provisioning Manager for OS Deployment

IBM Software Demos Tivoli Provisioning Manager for OS Deployment Für viele Unternehmen steht ein Wechsel zu Microsoft Windows Vista an. Doch auch für gut vorbereitete Unternehmen ist der Übergang zu einem neuen Betriebssystem stets ein Wagnis. ist eine benutzerfreundliche,

Mehr

EIDAMO Webshop-Lösung - White Paper

EIDAMO Webshop-Lösung - White Paper Stand: 28.11.2006»EIDAMO Screenshots«- Bildschirmansichten des EIDAMO Managers Systemarchitektur Die aktuelle EIDAMO Version besteht aus unterschiedlichen Programmteilen (Komponenten). Grundsätzlich wird

Mehr

Treuhand Cloud. Die Arbeitsumgebung in der Cloud

Treuhand Cloud. Die Arbeitsumgebung in der Cloud Treuhand Cloud Die Arbeitsumgebung in der Cloud Seite 2 Diagramm Treuhand Cloud Server Server Treuhand-Büro Home-Office Treuhand-Kunde Treuhand-Büro Interne IT-Infrastruktur des Treuhänders. Zugriff auf

Mehr

Root-Server für anspruchsvolle Lösungen

Root-Server für anspruchsvolle Lösungen Root-Server für anspruchsvolle Lösungen I Produktbeschreibung serverloft Internes Netzwerk / VPN Internes Netzwerk Mit dem Produkt Internes Netzwerk bietet serverloft seinen Kunden eine Möglichkeit, beliebig

Mehr