Einkaufsführer Storage

Größe: px
Ab Seite anzeigen:

Download "Einkaufsführer Storage"

Transkript

1 Eine Publikation von Special Einkaufsführer Storage L LÖSUNGEN L TEST L TRENDS Cloud-Architekturen Cloud im Software-defined im Vergleich Eigenbau virtualisierungs-guide oder Data-defined 32 Seiten ECMguide.de geballtes Storage-Wissen ECMguide.de Einkaufsführer Storage ALL-FLASH-SPEICHER IM ÜBERBLIC

2 ES-2800 Nexenta Unified Storage Cluster mit ZFS Filesystem ES-2800 Storage Server basieren auf NexentaStor Software und bieten damit alle Vorteile des ZFS Filesystems, wie Schutz vor korrupten Filesystemen durch Festplattenfehler, praktisch unbegrenzte Snapshots, kurze Rebuildzeiten von Festplatten etc. Besonders hohen Schutz vor Hardwarefehlern bietet ein Cluster aus zwei ES-2800 Storage Servern, bei dem beide noten auf shared Storage Devices zugreifen. Um auch die JBODs redundant zu halten, werden die Festplatten paarweise gespiegelt. Natürlich werden diese Unified Storage Systeme auch einzeln angeboten und lassen sich nachträglich zum Cluster erweitern. Unsere Storageexperten beraten Sie gerne und erstellen Ihnen eine omplettlösung nach Ihren spezifischen Anforderungen. ES-2800 Head HA-Cluster ES-2800 Head Heartbeat SAS 6 Gbit Mirror Shared Storage 1 Shared Storage 2 ES-2800 Nexenta Cluster mit gespiegeltem Storage 2 Clusterknoten, inkl. MwSt. Gold Level Service, ,10 + zwei 24-Slot JBODs, teilbestückt mit je 12 x 600 inkl. MwSt. GB SAS (15), Preis ohne Installation exkl. MwSt ,- exkl. MwSt. Unified Storage Cluster mit SAS, SSD und/oder Nearline Disks zwei noten mit je 2 gespiegelten Bootplatten, 2 HE zwei 24-Slot JBODs, 4 HE (optional mehr) Server mit Sandy Bridge X9 Board, Intel E5 Prozessor 64 GB Arbeitsspeicher (opt. bis 512 GB mit dual Prozessor) 4 x 1 Gbit iscsi/ethernet Port, optional mehr Ports, auch 10 Gbit und Fibre Channel Interface redundante Netzteile und Lüfter, IPMI Management 3 Jahre HW-Garantie + opt. 5 Jahre u. Express-Service NexentaStor Software: NAS (NFS, CIFS, FTP, WebDAV, RSync), iscsi und FC basiert auf ZFS Filesystem ompression on the fly und Deduplikation sparen Speicherkapazität Thin Provisioning für flexible Speicherbereitstellung Unterstützung von ZIL und L2ARC Cache auf SSD RAID Levels: mirror, raidz, raidz2, raidz3 automatische Fehlerkorrektur (scrubbing) unlimitierte ZFS Snapshots asynchrone Replikation des Clusters auf Remote System möglich managebar über Web-Frontend, ausführliches Monitoring 1 Jahr Nexenta Gold Support (optional mehr) EUROstor GmbH Hornbergstr. 39 D Filderstadt Tel: +49 (0) Fax: +49 (0)

3 Einkaufsführer Storage Editorial 3 Inhalt Editorial...Seite 3 Impressum...Seite 3 Cloud: Server auf deutschem Boden sind gefragt...seite 4 Storage-Trends: Neuer Speicheransatz für unstrukturierte Daten...Seite 6 Storage-Trends: Flexibler durch Software-bestimmten Speicher... Seite 8 Cloud: Cloud keine unternehmenskritischen Daten auslagern... Seite 10 Advertorial: Backup und Archivierung in einem Schritt...Seite 12 Advertorial: Software-Defined Storage für virtualisierte Datenbanken...Seite 14 Advertorial: SQL-Server-Beschleunigung: Es könnte so einfach sein...seite 16 Advertorial: Eine Lösung für alle Backup-Szenarien...Seite 18 Cloud: Cloud im Eigenbau...Seite 20 Filesharing: Dropbox für Unternehmen... Seite 24 Datenspeicherung: Alles auf Flash...Seite 27 In zehn Jahren von DAS zur Cloud Wenn Sie auch nur ab und an bei uns vorbeischauen, wissen Sie es natürlich, feiert heuer sein 10-jähriges. Ich wollte es einfach noch einmal erwähnt haben. Wie schon zu unserem Backup-Special Anfang des Jahres, habe ich in früheren Beiträgen gestöbert. Man mag es heute gar nicht mehr glauben, aber 2003/2004 waren Speichernetzwerke tatsächlich noch etwas Neues. SANs gab es mehr oder weniger nur in Enterprise-Umgebungen und die Speicherkapazität von einst tragen wir heute als Stick in der Hosentasche mit uns herum. Im Januar 2003 schrieb ich, dass Western Digital eine 250-GByte-Festplatte angekündigt hat, mit einer Datendichte von 83 GByte pro Scheibe mit ATA/100-Schnittstelle. Das war damals echt ein racher. Mittlerweile sind 3,5-Zoll-Platten mit einem TByte eigentlich bereits etwas von gestern. In unserer Anfangszeit führten wir echt noch Diskussionen, ob es für Firmen wirklich sinnvoll ist, Direct-Attached-Storage (DAS) durch NAS oder SAN zu ersetzen. Gleichzeitig schickten sich PATA-Platten an, ihren Platz in Disk-Arrays zu erobern. Was ein Aufschrei bei den großen Storage-Herstellern: Wer seine Daten auf sowas speichert, sollte seine IT am besten gleich wieder abschaffen. Mittlerweile sind SATA-Laufwerke in der x-ten Nachfolgegeneration eine Selbstverständlichkeit. Heute geht es darum, ob die Cloud sich als kommender Speicherstandard etabliert. Die Techniken lassen sich zwar nicht vergleichen, aber PATA galt damals als etwas Bedenkliches und in höchsten Masse Unsicheres. Merken Sie etwas? Als ob man über die Cloud spricht Ich bin ja durchaus auch als Cloud-Skeptiker bekannt, letztendlich ist es aber schon praktisch, wenn ich von überall auf meine persönlichen Daten zugreifen kann egal von welchem Gerät aus. Ohne Prism & Co wäre Cloud-Speicher vermutlich schon ein Stück weiter. Lesen Sie in diesem Special den aktuellen Stand von Cloud-Speichern, Filesharing und Open-Source-Lösungen. Ihr arl Fröhlich Chefredakteur, Impressum eine Publikation von GbR arl Fröhlich, Engelbert Hörmannsdorfer, Ulrike Rieß Auf der Grün 8, D Miesbach Tel /51 79, Fax: / Chefredaktion, onzept: arl Fröhlich (verantwortlich für den redaktionellen Inhalt) Tel. 089/ , Fax: 089/ Redaktion: arl Fröhlich, Engelbert Hörmannsdorfer, Max Lessel, Ulrike Rieß Schlussredaktion: Brigitte Scholz Layout/Grafik: Uwe lenner, Layout und Gestaltung, Rittsteiger Str. 104, Passau, Tel / Titelbild: istockphoto.com/ sean Mediaberatung: Claudia Hesse, Tel / Webkonzeption und Technik: Günther Schmidlehner Urheberrecht: Alle in»«erschienenen Beiträge sind urheberrechtlich geschützt. Alle Rechte (Übersetzung, Zweitverwertung) vorbehalten. Reproduktion, gleich welcher Art, sowie elektronische Auswertungen nur mit schriftlicher Genehmigung der Redaktion. Aus der Veröffentlichung kann nicht geschlossen werden, dass die verwendeten Bezeichnungen frei von gewerblichen Schutzrechten sind. Haftung: Für den Fall, dass in»storagemagazin.de«unzutreffende Informationen oder Fehler enthalten sein sollten, kommt eine Haftung nur bei grober Fahrlässigkeit der Redaktion oder ihrer Mitarbeiter in Betracht. Oktober 2013 Eine Publikation von

4 4 Cloud Einkaufsführer Storage Prism-Affäre: onjunkturprogramm für europäische Clouds und Verschlüsselung Server auf deutschem Boden sind gefragt Die Überwachungsskandale seitens britischer und US-amerikanischer Geheimdienste zeigen Wirkung: Das Einkaufsverhalten europäischer Administratoren verändert sich langsam. Cloud-Services werden nun lieber bei europäischen Anbietern bestellt, und bei Datensicherheitsunternehmen steigt die Nachfrage nach Verschlüsselungslösungen. Engelbert Hörmannsdorfer Thomas Meier kann sich eine gewisse Schadenfreude nicht verkneifen.»die bekanntgewordenen Abhörprogramme erweisen sich in gewisser Weise als onjunkturprogramm für Sicherheitsfirmen«, süffisiert der CEO von dem Schweizer Verschlüsselungsspezialisten InfoGuard.»In der Vergangenheit ist es so gewesen, dass vor allem Bank- und Finanzinstitute für die Gefahren von Lauschangriffen auf wertvolle Computerdaten sensibilisiert waren. Dieses Bild hat sich jetzt verändert und die umfangreiche Berichterstattung rund um die Prism-Affäre treibt den IT- Sicherheitsmarkt an.«in Europa registriere Infoguard nun eine verstärkte Nachfrage nach Swiss-Made- Sicherheitslösungen sowohl von technologischen Marktführern aus dem Industrieumfeld als auch von Pharma- und Chemiekonzernen.»Gerade in globalisierten Wirtschaftsstrukturen«, konstatiert Meier,»mit verteilten Niederlassungen, abgesetzten Rechenzentren und Produktionsstandorten auf mehreren ontinenten ist die Gefahr sehr groß, dass geschäftskritisches Wissen abfließt und von billiger produzierenden Herstellern vermarktet wird.«erste Privatanwender liebäugeln mit Verschlüsselung Auch das Datenkompressions-Tool»Win- Zip«wird verstärkt nachgefragt.»wir stellen eindeutig verstärktes Interesse und gezielte Nachfrage von Neu- und Bestandskunden im B2B-Bereich zu Winzip und der darin enthaltenen Verschlüsselungstechnik fest«, erklärt Jonas Henning, Produktmanager bei dem holländischen Vertriebsunternehmen Globell. Das Unternehmen ist exklusiver Distributor und Lizenzgeber für Winzip in der Wird Cloud-Backup bereits genutzt? DACH-Region. Winzip Computing ist seit 2006 Tochter des kanadischen Software- Hauses Corel. Das Interessante an der gesteigerten Nachfrage nach Winzip ist: Es dreht sich Gibt es schon einen größeren Zuspruch für Cloud-Backup bei Unternehmen? Dies wollten wir bei einer Umfrage unter den -Lesern erfahren. Immerhin knapp die Hälfte nutzt es schon, der andere Teil meinte»trifft (noch) nicht zu«. Wenn Cloud-Storage genutzt wird, dann liegt nicht ganz unerwartet Dropbox vorne, gefolgt von Google-Drive. Aber auf dem dritten Platz rangiert mit der Telekom-Cloud bereits ein deutsches Unternehmen wegen der hiesigen strikteren Datenschutzbestimmungen? Der Rest der Nennungen bringt keine Auffälligkeiten. leine Ausnahme: Obwohl wir bei der Umfrage allerhand Cloud-Anbieter zur Vorauswahl angaben, ist für uns die häufige Nennung von»andere«relativ überraschend. Einige Umfrageteilnehmer gaben uns ergänzende Hinweise. So meinte der User»mail«:»Im Unternehmen dürfen wir nicht zu Cloud-Anbietern auslagern; zudem sind interne Lösungen günstiger.«und der Umfrageteilnehmer»griemert«erläuterte:»Es werden schon Daten in die Cloud gesichert. Aber parallel auf drei Cloud-Plätze, falls mal eine nicht erreichbar sein sollte. Und es sind nur Marketing-Materialien und Standard-Unterlagen, die man auch unterwegs braucht. Also nichts Unternehmens- und Personen-kritisches.«Ähnlich äußerte sich der Anwender»gm«:»In eine Cloud haben wir noch nichts gesichert. Nützen sie nur zum Datenaustausch.«Andere (18) trifft (noch) nicht zu (33) IBM Smartcloud (1) Dropbox (10) HP Cloud (1) Google Drive (8) Telekom Cloud (5) Amazon / S3 (2) LaCie Wuala (2) Microsoft SkyDrive / Azure (2) Mozy (2) Strato HiDrive (2) Beliebte Cloud-Storage-Provider: Dropbox, Google-Drive und Telekom-Cloud (Mehrfachnennungen waren möglich). Quelle/Grafik: Eine Publikation von Oktober 2013

5 Einkaufsführer Storage Cloud 5 Administratoren liebäugeln zunehmend mit heimischen Cloud-Providern: Im Worst-Case-Fall 35 Milliarden US-Dollar Umsatzverluste außerhalb der USA für US-Cloud-Anbieter. vor allem um die integrierte 128- und 256-Bit-AES-Verschlüsselungstechnik. Und diese Funktion stand bislang nicht primär im Vordergrund der Vermarktung. Denn viele Unternehmen und private Anwender kennen Winzip lediglich als omprimierungslösung mit seinen ernfunktionen, Dateien zu packen und entpacken oder automatisch Backups zu erstellen. US-Cloud-Services-Anbieter verlieren Prism-Skandal deutlich Probleme scheinen US-Cloud-Services- Anbieter zu bekommen. Dafür wittern Anbieter von Cloud-Services vor allem aus Europa und Deutschland wegen der Datenspionageskandale rund um»prism«,»tempora«oder»xeyscore«morgenluft und das noch nicht mal unberechtigt. So ermittelte der US-amerikanische Thinktank ITIF (Information Technology and Innovation Foundation) im Frühsommer dieses Jahr in einer Schnellumfrage ein düsteres Szenario für US-Anbieter von Cloud-Services: Wegen dem NSA-Prism- Skandal dürften diesen Unternehmen in den nächsten drei Jahren zwischen 22 und 35 Milliarden US-Dollar an Auslandsumsätzen wegbrechen. Im Einzelnen errechnet ITIF-Analyst Daniel Castro in der Studie»How Much Will PRISM Cost the US Cloud Computing Industry?«, dass die US-Anbieter zwischen zehn und 20 Prozentpunkte auf den Auslandsmärkten verlieren dürften, und an asiatische und europäische onkurrenten abgeben müssten. Deutsches Datenschutzgesetz ist echtes Verkaufsargument Hintergrund ist, dass grundsätzlich der Standort des Servers, auf dem die Daten gespeichert sind, ausschlaggebend für das geltende Rechtssystem ist. Entscheidet sich ein Unternehmen, seine Daten an Dritte auszulagern und sie beispielsweise in der Datenwolke (Cloud-Computing) des weltgrößten Anbieters Amazon zu speichern, befinden sie sich mit sehr großer Wahrscheinlichkeit auf Servern, die auf amerikanischem Boden stehen. Unter Berufung auf den seit 2001 gültigen»patriot Act«darf die USA jedoch ohne richterliche Verfügung auf die Server von US-Unternehmen zugreifen. Aufgrund dieser Rechtsproblematik fragen in- und ausländische Unternehmen zunehmend die Angebote von IT-Dienstleistern nach, deren Server sich auf deutschem Boden befinden und damit auch dem deutschen Recht, und vor allem dem Deutschen Bundesdatenschutzgesetz unterstehen.»besonders unden aus datenschützerisch heiklen Branchen wie Anwaltskanzleien, Treuhandfirmen, Ingenieurbüros, Forschungseinrichtungen und Versicherungen legten zunehmend Wert darauf, dass ihre Daten immer in Deutschland bleiben«, sagt Götz Piwinger, Geschäftsführer der Zertifizierungsstelle German Cloud. Administratoren und Privatanwender denken peu a peu um Die Datenspionageskandale lösten freilich auch bei Privatanwendern einen gewissen Schock aus. Allerdings nimmt es diese lientel eher achselzuckend hin nach dem Motto: Ich hab ja nichts zu verbergen und, außerdem, was kann ich schon dagegen tun. Die etwas Aufgeklärteren darunter tun allerdings schon etwas: Sie wechseln den -Provider, bzw. nutzen zumindest lieber heimische - Anbieter. Das haben auch die hiesigen - Provider Deutsche Telekom und United Internet erkannt. Sie haben sich im August zusammengeschlossen und die Initiative» made in Germany«zur sicheren Übertragung von s gestartet. Die Unternehmen wollen bei ihren -Diensten»T-Online«,»GMX«und»web.de«durchgehend verschlüsseln. Und zwar sowohl am Client, bei der Datenübertragung und bei der Speicherung in den Rechenzentren. Einige Wochen Quelle: ITIF nach der Ankündigung stieß auch das deutsche Unternehmen Freenet mit seinem -Service noch dazu. Diese Anbieter von -Services berichteten unisono seit Aufkommen der Abhöraktionen durch ausländische Geheimdienste von deutlich gestiegener Nachfrage nach ihren -Lösungen. Freilich vermochte keiner zu sagen, ob dadurch -Accounts bei Google, Microsoft/Outlook.com oder Yahoo tatsächlich gekündigt wurden. Telekom plant Schutzschirm über»deutsches Internet«Und die Welle, hin zu hiesigen - Providern, will nun die Telekom mit Nachdruck forcieren: Der onzern möchte dazu im Zusammenspiel mit anderen Netzbetreibern sicherstellen, dass innerdeutsche Mails und andere Daten künftig rein national transportiert werden. Um die amerikanischen und britischen Geheimdienste auszutricksen, will man mit Geschäftspartnern in Deutschland vereinbaren, dass s und andere Formen von Informationsaustausch nur noch über notenpunkte innerhalb von Deutschland geleitet werden und nicht mehr über notenpunkte im Ausland.»Internetverkehr kennt keine Grenzen, Daten können um die ganze Welt geleitet werden«, erklärt Thomas remer, Datenschutzvorstand der Telekom.»Wenn Sender und Empfänger aber in Deutschland sind, wollen wir erreichen, dass der Internetverkehr auch in Deutschland bleibt.«laut remer sollten ähnliche Abkommen relativ schnell mit anderen europäischen Schengen-Ländern möglich sein. Oktober 2013 Eine Publikation von

6 6 Storage-Trends Einkaufsführer Storage Data-defined Storage Neuer Speicheransatz für unstrukturierte Daten Rasantes Datenwachstum, der Wunsch nach Echtzeitanalysen und ständiger Datenverfügbarkeit sind noch immer große Herausforderungen für Speichersysteme. Oft kommen herkömmliche Modelle bzw. onzepte an ihre Grenzen. Der Ansatz des Data-defined Storage soll hier vor allem für Big-Data-Szenarien Abhilfe schaffen. Ulrike Rieß Nachdem derzeit gerade Software-definierte Umgebungen der letzte Hype sind, taucht aus den USA schon das nächste Marketing-Modewort auf: Data-defined Storage, kurz DDS. Dahinter versteckt sich aber nicht nur eine reine Definition, sondern bereits ein verfügbares Produkt. Zwar steht Tarmin noch allein auf weiter Flur, bekommt aber schon Rückendeckung und Unterstützung eines prominenten Platzhirsches der Branche. Der Wert der Daten steht im Mittelpunkt Steigende unstrukturierte Datensätze durch soziale Netzwerke, vermehrte Videoanalysen, medizinische Geräte oder das Internet der Dinge erschweren Administratoren die Verwaltung und Analyse ihrer digitalen Informationen und verhindern somit schnelle Geschäftsreaktionen. Ebenso lassen sich die Speicherumgebungen für diese Anforderungen nicht unbedingt unkompliziert skalieren. Aus diesem Grund kommt nun ein neuer Speicheransatz zum Tragen, der weder Funktionalitäten der IT noch die Hardware in den Fokus nimmt, sondern den Wert der Daten selbst. Der Data-defined Storage soll die Unternehmen ansprechen, die hohe Datenzuwächse, eine steigende Anzahl an Vorschriften und Regeln verwalten sowie datengetriebene Entscheidungen treffen müssen zum Großteil also Big Data-Umgebungen. DDS soll hier die Art und Weise wie Daten abgelegt, verwaltet und geschützt werden, revolutionieren und eine datenzentrische Management-Architektur bieten. Hier sind dann Anwendungen, Informationen und Speicherebenen zusammengeführt. Dies wird durch eine Vereinheitlichung erreicht, bei dem Anwender, Applikationen und Geräte Zugriff auf ein Repository mit Metadaten erhalten. Dieses erlaubt Unternehmen, sämtliche Daten in valide Informationen zu»übersetzen«, während gleichzeitig eine flexible und skalierbare Speicherplattform die Basis bildet. Data Defined Storage Architecture Bild: Tarmin Die Daten werden hier völlig losgelöst vom darunterliegenden Medium betrachtet, sind quasi von der Hardware abstrahiert. DDS fokussiert auf die Metadaten, das heißt auf den Inhalt, die Bedeutung und den Wert der Informationen. Dabei ist es unerheblich, um welchen Datentyp, welches Speichermedium und welchen Standort es sich handelt. Es geht darum, große Datenmengen über verteilte Ressourcen und Standorte hinweg mittels Inhalts- und Metadaten-Tag-Suche sowie mit Big-Data Analytics-Integration zentral zu verwalten, auszuwerten und zu nutzen. Eine Publikation von Oktober 2013

7 Einkaufsführer Storage Storage-Trends 7 Die drei Säulen der DDS-Technologie DDS-Technologie fußt auf drei Säulen: dem Media Independent Data Storage, dem Data Security und Identity Management sowie dem Distributed Metadata Repository. Media Independent Data Storage: DDS eliminiert die Limits des medienzentrischen Speichers und erlaubt die übergreifende Nutzung unterschiedlichster Storage-Plattformen, seien es Flash-Speicher, Festplattensysteme, Cloud-Storage oder Bandmedien. Dabei ermöglicht es mittels einer Grid-basierten MapReduce- Architektur Scale-Out-Funktionalität sowie transparenten Zugriff auf verteilte Repositorys. Data Security und Identity Management: Hierbei erlaubt DDS ein End-to- End-Identity-Management hinunter bis zur individuellen Nutzer- oder Geräte- Ebene. Damit lassen sich die Mobilität, die Auswertung und Nutzung der Daten sowie die Vorschriften bzw. Regelverwaltung für die Informationen verbessern. Distributed Metadata Repository: Dabei fasst DDS File-Systeme unter einem Global Namespace zusammen. Metadaten werden so ausgewertet, dass die daraus gewonnen Informationen in Geschäftsentscheidungen und -analysen resultieren. bei Bedarf ihre Speicherumgebung nicht flexibel genug gestalten. Eine DDS-Lösung ist reine Software, versteht sich aber auch nicht als Software-defined Storage. Denn SDS beachtet den Wert der Daten nicht und bietet nicht die entsprechende Metadaten-Datenbank oder deren Auswertung. So ist DDS wohl ein wenig von beiden Welten: ein wenig Objekt-Storage, ein wenig SDS und soll dabei doch mehr Flexibilität und Nutzwert bringen als beide Ansätze. Ein Produkt, ein namhafter Partner Wer nach einem konkreten Produkt für DDS sucht, wird momentan nur einen Hersteller finden, der eine Lösung bietet. Das US-amerikanische Unternehmen Tarmin liefert mit»gridbank«mittlerweile in Version 3.0 die Software für Data-defined Storage. Gridbank vereint die oben genannten Technologiesäulen, um je nach Wert und Bewertung Daten zu speichern, zu kontrollieren und zu verstehen. Zu den Funktionen gehören unter anderem ein gezieltes, regelbasiertes Ablegen unterschiedlichster Objekte, Bereitstellung eines Global Namespace, File-System-Virtualisierung, Archivierung und Migration. Hinzukommen Replikation und Disaster- Recovery sowie Suchalgorithmen und Big Data Analytics. Derzeit gibt es fünf Produkte in der Tarmin-Auslage:»GridBank Enterprise«,»GridBank Cloud Storage«,»GridBank for Files and Objects«,»Grid- Bank for Exchange«und»GridBank for SharePoint«. Natürlich arbeitet die Software Hardware-unabhängig und agnostisch. Allerdings erhält die Firma derzeit Unterstützung von einem großen Hersteller, in dessen Portfolio sich die DDS-Lösung gut integriert: IBM. Beide Unternehmen kooperieren und gehen potenzielle unden gemeinsam an. Gridbank integriert sich mit IBMs»XIV«,»V7000«,»SCE«,»TS 3500«sowie dem»tivoli Storage Manager«und»GPFS«. IT-Verantwortliche, die sich nicht sicher sind, ob ihre Hardware leistungsfähig genug ist, können hier das optimierte Blech gleich mit erwerben. Big Blue ist sich offenbar sicher, dass gerade unden im Big-Data-Bereich von einer solchen Lösung profitieren könnten. Einsatzszenarien sind unter anderem in der Ölindustrie, im rankenhaus/medizin-segment, im Finanzsektor, in allen Forschungsbereichen sowie bei den Life Sciences und den Universitäten zu finden. Ob sich der Begriff des Datadefined Storage und der damit verbundene Lösungsansatz durchsetzen werden, muss sich erst zeigen. Hier haben IBM und Tarmin noch ein gutes Stück Weg vor sich. Ein wenig Software-defined, ein wenig Objektspeicher Auf den ersten Blick sieht es so aus, als ließe sich DDS unter Software-defined Storage (SDS) und hier genauer unter Software-defined Object Storage subsumieren. Data-defined will aber mehr sein und bieten als Objektspeicher mit softwaredefinierten Funktionen. So unterstützt DDS beispielsweise die Protokolle CIFS, NFS, FTP, HTTP, REST, SOAP, WebDAV sowie das HDFS/Hadoop API. Objektspeicher ist hier auf HTTP, REST und SOAP limitiert, im besten Fall unterstützt er noch HDFS. Zudem soll DDS mehr Flexibilität bei der Art der abgelegten Objekte bzw. Datensätze gewährleisten sowie granularere Indexierung und Metadaten bieten. Da DDS Hardware-unabhängig agiert, lässt es sich besser und unkomplizierter skalieren. Objektspeicher sind meist proprietäre Lösungen, die dann mit jeweils einem identischen Modell oder einem System aus der Produktfamilie erweitert werden müssen. Anwender sind hier an einen Hersteller gebunden und können Die Daten werden bei Tarmin zentral verwaltet und nach ihrem Wert mit entsprechenden Metadaten für eine effiziente Suche versehen. Bild: Tarmin Oktober 2013 Eine Publikation von

8 8 Storage-Trends Einkaufsführer Storage Software-defined Storage Flexibler durch Softwarebestimmten Speicher Weg von proprietären Speichersystemen hin zu offenen Lösungen, die allein durch Software definiert werden das ist der neuste Trend in den Rechenzentren. Die Trennung von Standard- Hardware und dem darüber liegenden Software-Layer soll dem Anwender mehr Funktionalität und Flexibilität geben. Ulrike Rieß Auf dem Weg zum Software-defined Rechenzentrum oder Software-defined Data Center (SDDC) ist der Software-defined Storage (SDS) ein wichtiger Meilenstein. Flexibel einsetzbare, skalierbare und auf Standard-Hardware aufsetzende Software kann durchaus helfen, das Rechenzentrum agiler und freier zu gestalten. Allerdings wird der Begriff derzeit wie jede andere Marketing-Sau durchs Dorf getrieben und bei der Definition sind sich die jeweiligen Hersteller auch nicht ganz einig. Software-defined heißt Virtualisieren Im Grunde genommen geht es darum, die Infrastruktur in diesem Falle Speicher zu virtualisieren und als Service zur Verfügung zu stellen. SDS ist also nichts anderes als Software, die den Speicher definiert, also dessen Funktionalität, Skalierbarkeit und Agilität bestimmt. Dabei sollte die darunter liegende Hardware unerheblich sein und aus Standard-omponenten bestehen. Diese Software kann auch auf so genannten Converged Infrastrukturen operieren, beispielsweise in einem SAN mit unterschiedlichen Speichermodellen und Switchen. Nur dann kann von einem echten Software-definierten Storage die Rede sein. Speichersysteme, die von Haus aus mit einer proprietären Software ausgeliefert werden, sind sicher Modelle, die von der Software definiert werden, aber keine wirklichen SDS. Noch fehlen aber die Standards, da die Hersteller natürlich in erster Linie Interesse daran haben, ihr eigenes Produktportfolio an die Anwender zu bringen und nicht mit Software-Paketen neue und eventuell bestehende also nicht die eigene Hardware nützlicher und effizienter zu machen. Da es einheitliche Standards nicht wirklich gibt in Sachen Hardware, fallen also derzeit Systeme mit Software und (mehr oder weniger) Hardware-unabhängige Software unter den Begriff des SDS. Bei SDS gelten Software und Hardware als getrennte Instanzen. Die Datensicherung erhält einen Abstraktionslayer, mit dem Funktionen und Management vom reinen Blech getrennt werden. Aus der Hardware wird ein Ressourcen-Pool, der unabhängig vom jeweiligen Hyper-Visor betrachtet Sansymphony von Datacore legt den Abstraktionslayer über beliebige Hardware und bietet somit eine virtualisierte Speicherumgebung. wird. Dies lässt sich in einem Storage- Area-Network (SAN) umsetzen, aber auch im Direct-Attached-Storage (DAS)-Umfeld und auch für Flash-Speicher im Server. Vor ein paar Jahren hieß dies noch banal Speichervirtualisierung, aber SDS geht hier einen Schritt weiter. Denn diese Speichersysteme der neuen, Softwaredefinierten Generation sollen über mehrere Server und Storage-Systeme hinweg hochskalierbar und leistungsfähig sein, um hohe Transaktionslasten abzuarbeiten und großen Speicherbedarf zu bedienen. SDS soll optimiert auf die jeweilige Betriebsumgebung konfigurierbar und entsprechend funktionell sein. Getrieben wird der Trend zum Software-definierten Storage durch andere Eine Publikation von Oktober 2013

9 Einkaufsführer Storage Storage-Trends 9 Foto: Datacore Neuentwicklungen in der IT und somit in den Rechenzentren. Cloud-Computing bzw. -Storage gehört ebenso dazu wie Server-Virtualisierung, Bring-yourown-Device-Strategien oder neue Sicherungskonzepte wie Replikationen und automatisches Failover zur steten Aufrechterhaltung der IT und somit des Geschäftes. Darüber hinaus erfordern Service Level Agreements (SLA) und interne Abrechnungsmodelle Flexibilität und Funktionalität, welche die üblichen Speicherstrukturen oft nicht erfüllen können. Auch hier kann SDS Abhilfe schaffen. Vorteile von SDS Der größte Vorteil einer Software-definierten Speicherumgebung ist die Flexibilität der Umgebung selbst und die onfigurationsfreiheit. Der Administrator kann Standard-Hardware verwenden sozusagen Black Boxes. Dabei kann es sich um Festplattensysteme handeln, die bereits vorhanden sind oder neu erworbene. Der Hersteller spielt hierbei keine Rolle. Mit SDS könnte sich letztlich der Traum von einem wirklich heterogenen, offenen Speicherumfeld verwirklichen. Zudem lassen sich aktuelle Technologien hinzufügen und effizient nutzen wie zum Beispiel Flash-Medien, sei es als PCIe- Steckkarte oder als Speichermedium. Eine Erweiterung soll mittels SDS schnell und unkompliziert vonstattengehen. Erforderliche apazitäten sind dabei dem Ressourcenpool ebenso so zügig hinzugefügt wie Cache oder Schnittstellen oder Software-defined Storage ist strenggenommen Software, wie beispielsweise von Datacore. Prozessoren. Dabei ist es unerheblich, ob dies mittels gesamter Speichereinheiten oder einzelner omponenten geschieht. Die Verwaltung der gesamten Speicherumgebung erfolgt zentralisiert. Der IT- Verantwortliche kann den zentralisierten Storage-Pool dann entsprechend den Anforderungen einzelnen Abteilungen zuteilen. Funktionen wie Deduplikation, Thin Provisioning oder Tiering helfen, die Ressourcen effizient zu nutzen. Wer darüber hinaus vermehrt Flash im SDS einsetzt, erreicht ein höheres Skalierungspotenzial in Sachen Transaktionlast und geringe Latenzen. Insgesamt können die osten der Speicherumgebung mit SDS gesenkt werden. Da die Software die Funktionalitäten bestimmt und große Flexibilität bei der Erweiterung schafft, lassen sich Hardware- Bestände länger nutzen. Das wiederum spart Serverraum und ühlungsbedarf. Das Gleiche gilt für den Wartungsaufwand und den Stromverbrauch. Mit erfüllten SLAs lassen sich dann auch genauere Abrechnungsmodelle umsetzen, was der osten-nutzen-rechnung ebenso zugutekommt. Anbieter von SDS-Lösungen Wie bei jedem Trend schießen auch für SDS die Lösungen quasi aus dem Boden. Verschiedene Anbieter offerieren unterschiedliche Lösungen. Beim auf bzw. bei der Auswahl sollten IT-Manager nicht nur auf den Preis, sondern auch auf die Supportleistungen achten, die bei einem Fehler oder beim Versagen der Software wichtig werden, weil dann gleich eine größere Menge an Hardware, Services und Funktionen betroffen sein kann. Hersteller DataCore ist einer der Pioniere in der Speichervirtualisierung und auch im SDS-Umfeld. Die»SANsymphony«-Software lässt sich in heterogenen Umgebungen hoch skalieren und bringt umfassende Funktionen mit. EMC bedient das Segment mit einer»vipr«- Lösung, die der Anbieter selbst als Software-Defined Storage-Plattform bezeichnet. Sie verfügt über eine integrierte SAN-Verwaltung von Brocade. IT-Riese HP offeriert seine»virtual Storage Appliance«(VSA) als»storevirtual VSA«oder»StorOnce VSA«. Die Software»Data ONTAP Edge«ist NetApps Antwort auf SDS. Wer sich nicht bei den Platzhirschen der Branche umschauen möchte, der kann auf Unternehmen wie Nexenta und deren Produkt»NexentaStor«zurückgreifen. Die ZFSbasierte Lösung ist eine reine Software- NAS/SAN-Plattform. Und auch VMware spielt bei SDS mit und präsentiert drei Angebote:»vCenter Site Recovery Manager«,»Virsto«und»Virtual SAN«, wobei letzeres noch im Beta-Modus ist. Software bestimmt das Rechenzentrum SDS ist nur ein Bauteil des Software-defined Data Center (SDDC), dem nächsten Schritt der IT-Evolution. Zu dieser voll virtualisierten und hoch flexiblen Infrastruktur gehört dann auch Software-defined Network dazu (SDN). Brocade und Juniper bieten hier ebenso Produkte wie HP oder IBM. Ein solches Rechenzentrum soll seine Ressourcen zu einem Höchstmaß nutzen und beliebig skalieren können. Technologien wie Flash könnten hier beitragen, Flaschenhälse vollständig zu eliminieren. Wie schon bei SDS stehen hier Flexibilität und onfigurationsfreiheit im Mittelpunkt, die auf Standardkomponenten aufbauen können. Die Hardware wird zur Commodity, Erweiterungen und Migrationen gehen schneller und stressfreier vonstatten. SDDC ist sicher der Traum eines jeden Rechenzentrumleiters. Allerdings bleibt abzuwarten, inwiefern sich die Hersteller wirklich von ihren proprietären Lösungen verabschieden wollen. Letztlich werden hier immer die Bestrebungen bleiben, das Blech entsprechend zur Software mitzuverkaufen. Oktober 2013 Eine Publikation von

10 10 Cloud Einkaufsführer Storage Cloud-Architekturen im Vergleich Cloud keine unternehmens Bis Prism war die Cloud ein großer Hype, jetzt rudern Anwender und Anbieter zurück. Dabei fordern Cloud-Architekturen nicht zwingend die Speicherung irgendwo im Internet. Cloud ist mehr als Dropbox und Facebook. Moderne Ansätze optimieren IT-Prozesse und die Art und Weise, wie Unternehmen mit ihrer internen EDV umgehen. Max Lessel Mit Cloud-Computing begann wieder einer dieser nebulösen Hypes, von dem irgendwie keiner genau wusste, was eigentlich dahinter steckt. Dazu trugen letzten Endes auch die Hersteller bei, die alles und jedem den Stempel Cloud aufdrückten und damit eine klare Definition verhinderten. Ein guter Erklärungsansatz für Enterprise-taugliche Cloud-Lösungen kann das Wort»Cloud«alleine schon liefern. eine Transparenz Was ist der Unterschied zwischen einem Bergpanorama bei klarem Wetter und bei Bewölkung? Richtig, bei Bewölkung sieht man die Berge nicht, weil Wolken im Weg stehen. Die»Cloud«versperrt die Sicht und so simpel das klingen mag: Das ist im übertragenen Sinne einer der wesentlichen Aspekte von Cloud-Computing. Cloud-Architekturen trennen den Nutzer von der dahinter liegenden Technik ab. Wer eine virtuelle Maschine für einen Dienst benötigt, bekommt diese aus einer Iass-Cloud und muss sich nicht darum kümmern, welcher Hypervisor wo läuft, was für Server im Spiel sind und wo auf welchem Storage das Ganze landet. Bei Paas-Clouds erhalten Entwickler ihre Tools und die nötigen Software-omponenten wie eine Datenbank, welche sie für ihre Applikation benötigen. Das kann zum Beispiel eine ombination aus MySQL, PHP und Apache sein. Auf welchem Betriebssystem diese Dienste laufen, ob dahinter virtuelle oder physische Systeme oder gar Container stehen, ist dem Anwendungsentwickler erst einmal egal. Saas als am höchsten abstrahierte Form der Cloud-Lösung liefert am Ende nur noch den Dienst an den Nutzer: Niemand kümmert sich darum, auf welchen Servern, Betriebssystemen oder Anwendungsplattformen nun Salesforce, Google oder Facebook laufen: Einloggen und Benutzen, basta. IT-Prozesse anpassen eine der drei grundlegenden»as a Service«-Cloud-Architekturen nötigt den Anwender, Daten im Internet abzulegen oder zugänglich zu machen. Viele Produkte und Lösungen laufen problemlos im Intranet eines Unternehmens. Allerdings erfordern Cloud-Ansätze bei vielen Unternehmen Änderungen bei den internen IT-Prozessen. Pass & Iaas rollen enorm schnell virtuelle Einheiten aus, welche IP-Adressen benötigen, auf zentrale Benutzerkonten zugreifen und ebenso schnell wieder verschwinden können, wie sie entstanden. Die IT muss agil sein und häufige Änderungen zulassen, ohne dabei aber die ontrolle zu verlieren. Dem gegenüber stehen eingeführte IT-Prozesse, bei denen Administratoren Systeme und Adressen in Excel-Listen pflegen, und neue Systeme erst nach einem komplexen Anforderungs- und Bewilligungsprozess bereitstellen können. Ebenso statisch und unflexibel stellen sich häufig bestehende onfigurationen für Monitoring, Logging und Security dar. Bevor sich IT-Leiter also konkrete Gedanken über Cloud-Produkte machen, müssen sie ihre Prozesse zur Bereitstellung, Accounting und Überwachung neu definieren ohne dabei natürlich die bestehenden Sicherheitsrichtlinien aufzugeben. Der Schlüssel zum Erfolg heißt Standardisierung. Die Auswahl der»golden Master«für virtuelle und physische Systeme muss klein und deren onfiguration modular gehalten bleiben. Händische Anpassungen neu ausgerollter Systeme müssen auf die Streichliste. Alle Standard-Aufgaben gehören automatisiert. Auch die richtige, organisatorische Position der IT-Abteilung im Unternehmen hilft bei Cloud-onzepten. Flexible IT- onzepte funktionieren am besten, wenn die IT als eigenständige Abteilung des onzerns auftritt und andere Abteilungen als unden behandelt. Damit greifen mandantenfähige Lösungen und interne Abrechnungsverfahren. Danach kann das Unternehmen die passende Cloud-Technologie als»private«im Intranet in Betrieb nehmen. Das Gute daran: Wenn die IT-Abteilung ihre Prozesse und Zuständigkeiten einmal»cloudfähig«angelegt hat, lassen sich bestehende private Clouds problemlos später auf hybride Clouds ausdehnen. Letztere verlagern einen Teil der IT-Ressourcen zu externen Dienstleistern. Dabei lassen sich die onzepte so ausarbeiten, dass unternehmenskritische Daten in der privaten Cloud verbleiben und nur unkritische Teile zum Dienstleister und im Internet landen. Iaas, Paas, Saas Die derzeit populärste Basisarchitektur für Cloud-Installationen ist die»infrastruc- Eine Publikation von Oktober 2013

11 Einkaufsführer Storage Cloud 11 kritischen Daten auslagern Foto: Petra Dirscherl / pixelio.de ture as a Service«, kurz Iaas. Anwender bekommen hier virtuelle Maschinen vorkonfiguriert mit Storage, Netzwerk und Betriebssystem zur Verfügung gestellt. Die IT-Abteilung als Cloud-Betreiber gibt dabei vor, welche Systeme und onfigurationen als Vorlage zur Verfügung stehen und welche Ressourcen die Gast-VMs beanspruchen dürfen. Der Anwender an sich bekommt lediglich die Maschine, nicht jedoch die ontrolle über den Hypervisor auf dem sie läuft. Das zentrale Element einer Iaas-Cloud ist dabei das Self-Service-Portal, über das die Anwender Zugriff auf ihre VMs erhalten. Zu den bekannten Software-Lösungen dieser Fraktion gehören das freie»openstack«oder»vmwares vcac«(vmware Cloud Automation Center). Bekannte Public- Cloud-Iaas-Dienste sind Amazon»EC2«und Microsoft»Azure«. Eine sinnvolle Iaas-Infrastruktur gibt in einer Private-Cloud keine»nackten«virtuellen Maschinen aus. Die IT-Abteilung sorgt dafür, dass die vom Unternehmen verwendeten Standard-Applikationen und eingesetzten Dienste bereits vorkonfiguriert vorliegen. Iaas lässt sich relativ leicht einführen. Die Herausforderung liegt dabei gar nicht bei der Installation der Plattform an sich. Weitaus mehr Aufwand dürfte es bereiten, die IT-Prozeduren wie bereits erwähnt zu ändern, die passenden VM-Templates zu erstellen und diese zu testen. Zudem müssen die bestehenden Infrastrukturdienste wie Monitoring, Directory Services, Firewalls, File-Services dafür bereit sein, die neuen Systeme automatisiert aufzunehmen. Iaas: Dienst ohne Maschine Eine Stufe oberhalb von Iaas siedeln sich»plattform as a Service«-Lösungen an. Bei genauerem Hinsehen handelt es sich hier eigentlich um die Cloud-Architektur mit dem größten Potential überhaupt. Anstelle virtueller Maschinen rollt Paas Anwendungsumgebungen aus. Diese enthalten alle nötigen omponenten, um eine Applikation zu betreiben. Zu den omponenten können Datenbanken wie MySQL oder»mongo DB«, Middleware wie»tomcat«oder»jboss«ebenso gehören, wie Runtime-Umgebungen für Java, Python oder Ruby. Nur der eigentliche Applikations-Code fehlt. Welches Betriebssystem darunter liegt und ob die Umgebung mit einer physischen Maschine, VM oder lediglich einem OS-Container läuft, ist dabei unerheblich. Der Anwendungsentwickler bekommt vorkonfiguriert, was er benötigt. Ist seine Applikation erst einmal getestet, kann die Paas-Umgebung zigfach geklont und betrieben werden. Auch hier ist es erst einmal unerheblich, ob Paas als Private oder Public Cloud läuft. Dort kann der Betreiber das Szenario mit privaten und öffentlichen Umgebungen zur Hybrid Cloud mischen. Das tolle an Paas ist die enorme Packungsdichte. Applikationscontainer brauchen keine eigene Betriebssysteminstanz und stellen sich daher auch nicht als vollwertige VM dar. In der Praxis belegt ein App-Container im Schnitt nur ein Zehntel der Ressourcen, welche eine vollwertige VM mit einer eigenen Betriebssysteminstanz verschlingt. Zudem arbeiten Applikationscontainer unabhängig vom verwendeten (Linux)-Betriebssystem und dessen Version. Allerdings funktioniert Paas auch nur auf Linux/Unix-Umgebungen. Microsoft hat eine eigenwillige Auffassung von Pass und liefert nicht die benötigte Containertechnologie. Auch bei Paas hakt es nicht an der Technik oder an der omplexität der verfügbaren Produkte. Hier treffen menschliche Gegensätze aufeinander. IT-Operatoren und Administratoren müssen Entwicklerkomponenten verwalten, Versionen bestimmen und pflegen. Entwickler hingegen müssen sich diesen strickten Vorgaben unterordnen und können nicht»mal eben«das neueste und tollste Tool irgendwo herunterladen und in ihre Umgebung einbauen. Paas erfordert Disziplin von zwei IT-Bereichen, die normalerweise nicht gerne miteinander zusammen arbeiten und in der Unternehmenskantine stets getrennte Tische aufsuchen. Zu den bekanntesten Paas-Lösungen und Services gehören»cloudfoundry«(vmware),»openshift«(red Hat) oder auch»appengine«(google). Noch in Beta befindet sich ein vielversprechendes onzept Namens»Docker«, das mit LXC- Containern arbeitet. Saas: völlig losgelöst Eigentlich sollte die»höchste Form«der Cloud die»software as a Service«(Saas) sein. Neu ist an diesem Betriebskonzept allerdings nichts. Wer einen unternehmensweiten Exchange-Server oder SAP- Instanz installiert, hat mehr oder weniger Saas etabliert. Als moderne Saas stufen viele Anwender daher eigentlich nur Software-Lösungen im Internet ein, welche historisch lokal installierte Dienste übernehmen. Als Branchenprimus gilt die CRM-Lösung salesforce.com. Bei genauerem Hinsehen ist es aber auch erstaunlich, wie viele vergleichsweise große Unternehmen bereits ihre lokalen Mail-Server entsorgt haben und sich die Groupware- Dienste bei Googl mieten. Cloud: als Betriebskonzept nicht am Ende Trotz der totalen Internet-Überwachung ist Cloud-Computing als Betriebskonzept nicht am Ende, da es auch alleine im Intranet gute Dienste liefern kann. Der größte Stolperstein auf dem Weg zu flexiblen und agilen Cloud-Lösungen im Internet ist dabei wieder einmal nicht die Technik, sondern die Organisation und die Prozesse innerhalb der Unternehmens-IT. Nur wer hier aufräumt, standardisiert und automatisiert, kann von flexiblen Cloud-Architekturen profitieren. Oktober 2013 Eine Publikation von

12 12 Advertorial Einkaufsführer Storage»Simpana OnePass«mit Self-Service-Access Backup und Archivierung in einem Schritt Commvault plädiert dafür die Sicherung und Archivierung von Daten als ganzheitliches Informationsmanagement zu betrachten. Eine Lösung muss physikalische und virtuelle Umgebungen wie auch die Cloud unterstützen. Die»Simpana«-Suite bietet IT-Managern hierfür eine einheitliche Verwaltungsplattform.»OnePass«Backup, Archivierung und Reporting in einem Schritt Grafik: Commvault Andreas Mayer, Commvault Die Themen Datenwachstum und Big Data beschäftigen Unternehmen nach wie vor. Hier bedarf es einer Datenmanagementlösung, die mehr als Backup bietet. So wird Archivierung aus diversen Gründen wie beispielsweise Backup-Window, Netzwerkbelastung oder Compliance-Anforderungen immer wichtiger. Auch dass auf die Daten wieder einfach zugegriffen werden kann und das auch vom Anwender selbst, ist sehr wichtig. Was nützt die Aufbewahrung der Daten, wenn nicht auf die Informationen schnell und unproblematisch zugegriffen werden kann? Bei der»simpana«-lösung von CommVault werden diese Anforderungen ermöglicht, so dass Backup, Archivierung, Zugriff auf Informationen auch für die Anwender selbst ermöglicht werden. Dabei wird mit»simpana OnePass«sogar Backup und Archivierung sowie Reporting in einem Schritt erledigt. ontrolliertes Speicherwachstum Diese Onepass-Technologie macht dank»zero Footprint Archivierung«separate Infrastrukturen unnötig, kontrolliert das Anwachsen des Speicherbedarfs und er- Eine Publikation von Oktober 2013

13 Einkaufsführer Storage Advertorial 13 Flexible und einfache Software-Lizenzierung Commvault bietet flexible Lizenzierungsansätze für den Erwerb der Simpana-Software. Diese sollen die Bedürfnisse und Ziele der Unternehmen berücksichtigen. Am häufigsten werden die folgenden beiden Lizenzierungsansätze verwendet: Herkömmliche Agenten und Optionen Der unde erwirbt bestimmte Funktionen, normalerweise pro Server, Anwendung oder Backup-Plattform, und kann diese unbefristet nutzen. Dieser Ansatz eignet sich gut für klar definierte Datenumgebungen, die sich im Laufe des Lebenszyklus der Infrastruktur nicht stark verändern. apazitätslizenzierung (CLA) Dieser nutzungsbasierte Ansatz wird normalerweise anhand der geschützten oder archivierten Front-End-apazität bemessen. Beim CLA-Modell verfügen Unternehmen über eine unbefristete Nutzungslizenz für eine nahezu unbegrenzte Anzahl an Enterprise-Class-Funktionen. Dieser Ansatz gibt unden die Flexibilität für Änderungen von Umfang, Skalierung und Schutzmethoden bei zugleich überschaubaren Aufwand für die Lizenzverwaltung und zusätzlichen osten. Vorteile der Einzelplattform-Software Unabhängig vom Lizenzierungsansatz, den Firmen im Zusammenhang mit der Implementierung von Simpana 10 wählen, bietet die Einzelplattform-Software einige Vorteile. Dazu gehören unter anderem: Nachverfolgung und Überwachung der in Gebrauch befindlichen Lizenzen über intuitive Management-Tools. Einblick in apazität und Wachstum durch die Nutzung von Dashboards für die Trenddarstellung. Steigerung der betrieblichen Effizienz und Unterstützung bei der strategischen Entscheidungsfindung mithilfe integrierter, umfassender Berichterstattung. Lizenzierung dank integrierter Endbenutzerlizenzvereinbarung. möglicht doppelt so schnellen Schutz auch für s und Archivierung. Dazu kommt ein Plug-In für Microsoft»Outlook«, welches den Anwendern ebenfalls ermöglicht, schnell und effizient selbst archivierte s zu suchen, zu sichten und wiederherzustellen, da sie auf die im»contentstore«aufbewahrten s direkt von Outlook aus zugreifen können. Contentstore ist das virtuelle Repository für alle verwalteten Informationen in Simpana, das bei der Commvault-Lösung einen wesentlichen Bestandteil darstellt und einen maßgeblichen Unterschied zu konventionellen Lösungen ausmacht. Contentstore sorgt dafür, dass Daten zu wertvollen Informationen werden. Dabei wird nicht nur der Zugriff auf die Daten ermöglicht, sondern auch Complianceund ediscovery-anforderungen können abgebildet und gewährleistet werden. Der Anwender kann selbst seine Daten suchen und darauf zugreifen (Self-Service Access) natürlich nur gemäß seinen Zugriffsrechten. So kann zum Beispiel Active-Directory für die Rechtevergabe genutzt werden. Der User kann auch von mobilen Devices (z.b. auch von Smartphones und Tablets) über eine Web-basierte onsole aus zugreifen. Mittels Commvault»Edge«können PCs und mobile Devices in die gesamte Unternehmenssicherung integriert werden. Die Daten werden so nicht nur im Rechenzentrum, sondern auch von den mobilen Devices gesichert, so dass alle Daten in ein ganzheitliches Datensicherungskonzept inklusive eventueller Compliance Anforderungen einbezogen werden können. Die Simpana-Lösung ist, wie schon angedeutet, weit mehr als eine Datensicherungslösung. Die Besonderheit dabei ist, dass alle Module auf einer Technologie- Plattform basieren, so dass diese Lösung aus einem Guss ist und die einzelnen Module mit hoher Synergie zusammen spielen, egal ob in physikalischen oder virtuellen Umgebungen. Die Administration wird vereinfacht, da die einzelnen Module über eine einheitliche onsole administriert werden und Synergien in der Simpana Onepass im Detail Vorteile von Backup und Archivierung mit Simpana Onepass Integriert Archivierung, Backup und Berichterstattung in einen einzigen Prozess, um die betriebliche omplexität zu verringern und die osten zu senken. Vereinfacht die Administration und strafft die Infrastruktur, ohne dass zusätzliche Personalressourcen erforderlich sind. Eliminieren von Datensilos, Rückgewinnung von Primärspeicher, Verbesserung der Anwendungsleistung, Verkürzung der Backup-Zeiten. Gemeinsamer Index, global dedupliziertes Backup und Archivierung in virtuellem Repository für verbesserten Zugriff und Steigerung der Speichereffizienz. Gewährleistet die Erfüllung rechtlicher und aufsichtsbehördlicher Anforderungen mit einem einzigen Sammel-, Lösch- und Zugriffspunkt für alle Unternehmensinformationen über den Simpana-Inhaltsspeicher. Ermöglicht den Zugriff auf wertvolle Einblicke für eine Optimierung der Archivierungsrichtlinien mit integrierten Berichterstattungs- und Analytikfunktionen Erzielt granulare Aufbewahrung auf Objektebene, damit nur für das Unternehmen relevante Dateien und s gespeichert werden. Technologie-Plattform integriert sind wie beispielsweise die globale Deduplizierung, die über alle Datenbereiche (Backup, Archivierung sowie Replikation) und Hardware-unabhängig eingesetzt werden kann. Simpana ist somit die umfassende Antwort für die immer weiter wachsenden Anforderungen an das Daten- und Informationsmanagement. Weitere Informationen Commvault Systems GmbH Lessingstr. 11, Oberhausen Tel (0) Fax + 49 (0) Oktober 2013 Eine Publikation von

14 14 Advertorial Einkaufsführer Storage Mit»SANsymphony-V«osten, Sicherheit und Leistung richtig taxieren Software-Defined Storage für virtualisierte Datenbanken Der Speicher ist für Datenbanken in virtuellen Maschinen häufig ein Hemmschuh. Eine Abwägung zwischen Ausfallsicherheit, Performance und osten ist unerlässlich. Software-Defined Storage mittels Speichervirtualisierung, wie sie Datacore mit»sansymphony-v«vorlegt, ermöglicht dabei die wirtschaftlich sinnvolle Integration von SSD-Technologie. Alexander Best, Datacore Software Disk im Verbund mit SSD-Technologie lässt Unternehmen von unterbrechungsfreier Hochverfügbarkeit und herausragender Performance träumen. Grundsätzlich ist das durch technische Innovationen umsetzbar allerdings mit entsprechendem Preis. Dieser ist aber der Dreh- und Angelpunkt jedes Projekts zur Bereitstellung oder Optimierung von Datenbanken auf virtuellen Maschinen, denn diese Umgebungen wachsen schnell. Eine Balance zwischen vorhandenen Ressourcen, Investitionssicherheit und Flexibilität für die Zukunft muss gefunden werden. Dabei kann die Hardware-unabhängige Speichervirtualisierung mit DataCore»SANsymphony-V«helfen. Der ostenaufwand für Solid-State-Technologie ist erheblich, warum also zusätzlich in diese Software-Schicht investieren? Speichervirtualisierung wird hier nicht als plattform- oder gerätespezifische Storage Technologie verstanden, sondern als übergreifende Basistechnologie für den derzeit viel zitierten»software-basierenden«storage, der eine hybride Speicherinfrastruktur erst ermöglicht. Hybride Ressourcen integrieren Einerseits wünschen sich Unternehmen bessere IT-Infrastrukturen, andererseits werden die Budgets dafür immer weiter beschränkt und zwingen zu ompromissen hinsichtlich der Neuanschaffung von Storage-Hardware. Investitionssicherheit und Flexibilität sind in diesem Zusammenhang die häufig genannten Schlagworte. In erster Linie sollen die bereits vorhandenen Ressourcen völlig ausgeschöpft werden, bevor die Umgebung erweitert wird. Das Problem hierbei ist die Umsetzbarkeit: Wie kann man eine sinnvolle ombination von neuer Hardware und den bewährten, bereits implementierten Geräte finden? Ohne Speichervirtualisierung gab es auf Grund der Hersteller-Beschränkungen häufig Probleme bei der Integration von Flash oder SSDs in eine aktive Datenbankumgebung. Diese Hardware-definierten omplikationen können mit einem Software-definierten Ansatz überwunden werden. Er erlaubt es, SSD-apazität unterbrechungsfrei in den virtualisierten Storage-Pool neben herkömmlichen Festplatten zu integrieren. Dabei ist es nicht notwendig, proprietäre und kostenintensive SSD-Lösungen zu verwenden, auch die Integration beispielsweise als SSD- arte im Server ist geeignet. Speicherklassen optimal nutzen Solange man eine einzelne Datenbank auf einer bestimmten Maschine laufen lässt, bleibt der Ablauf vorhersagbar. Dies gilt aber nicht, wenn mehrere virtualisierte Server die gleichen Speicher-Ressourcen nutzen. Unter diesen Umständen braucht man Unterstützung, um herauszufinden, wie etwa Performance-Probleme am besten gelöst werden können. Doch selbst nach stundenlangen Feineinstellungen ist es kaum möglich, die onfiguration für unterschiedliche Speicherklassen manuell so vorzunehmen, dass I/O intensive Sektionen mit Flash verarbeitet werden, während Hard- Disk-Drives (HDDs) die weniger anspruchsvollen Segmente bedienen. Speichervirtualisierungs-Software sollte deshalb automatisches Tiering beherrschen. Die Software migriert dann Datenblöcke von den langsameren Laufwerken auf die neue, schnellere Hardware. Dies reduziert die osten drastisch, da die kostspieligen SSDs ohnehin nur für maximal 5 Prozent der Datenblöcke benötigt werden. Gleichzeitig profitiert man von einer erhöhten Performance, nicht selten zwischen 200 und 500 Prozent. Sobald festgelegt ist, welche Aktionen Priorität Eine Publikation von Oktober 2013

15 Einkaufsführer Storage Advertorial 15 Grafik: Datacore Software erhalten sollen, trifft die Software die richtigen Entscheidungen in Echtzeit unter Berücksichtigung aller konkurrierenden I/O-Anfragen. Die Software dirigiert die zeitintensivsten Workloads an die SSDs und die weniger wichtigen zu den konventionellen Festplatten. Es ist ebenso möglich, die Algorithmen zu überschreiben, um Volumes mit einer bestimmten Storage-lasse zu verbinden, beispielsweise Aufträge zum Ende des Quartals, die Vorrang haben müssen. Die ausgereiftesten Lösungen wie beispielsweise Datacores Sansymphony-V gehen noch einen Schritt weiter. Sie ermöglichen zusätzliche Geschwindigkeit bei Festplattenzugriffen, indem sie den Server-DRAM für zusätzliches Caching nutzen. Dabei geht es nicht nur um das Lesen, sondern auch um das Schreiben. Neben der schnelleren Reaktionszeit reduziert das Cachen von Schreibzugriffen den Auslastungsgrad von Solid-State- Speichern und verlängert so ihre Lebenszeit. Dies schafft einen weiteren Anreiz für die Investition. Bei den Speichersystemen wird zusätzlich Thin-Provisioning angewendet, um unnötige Verschwendung der teuren Hardware zu vermeiden. Verfügbarkeit sichern Nun stellt sich neben der Performance ebenso die Frage nach der Verfügbarkeit. Auch hier hat Hardware-unabhängige Speichervirtualisierungs-Software viel zu bieten. Sansymphony-V stellt beispielsweise redundante opien von Datenbanken und den damit verbundenen Dateien auf unterschiedlichen Speichern bereit, unabhängig von Typ oder Marke. Die Software bietet effektiv kontinuierliche Verfügbarkeit, indem sie die sekundäre opie nutzt, während auf primärer Seite Wartungsarbeiten oder Erweiterungen durchgeführt werden. Das Gleiche gilt, falls in dem Raum, in dem der Storage untergebracht ist, die limaanlage ausfällt, ein Wasserrohrbruch auftritt oder er aufgrund von Baumaßnahmen nicht genutzt werden kann. Die Speichervirtualisierungs-Produkte nutzen eine ombination von synchroner Spiegelung zwischen gleichen oder ungleichen Geräten, zusammen mit Standard-Multi-Path I/O-Treiber auf den Hosts, um die gespiegelten Images transparent zu halten. Sie verwenden automatisches Fail-Over-und Fail-Back ohne manuellen Eingriff. Dafür sind keine speziellen Lizenzen für Datenbank-Replikation erforderlich. Die gleichen Mechanismen zum Schutz der Datenbanken schützen auch andere virtualisierte und physische Workloads und helfen, Business-Continuity- Praktiken zu konvergieren und zu standardisieren. Für ein besonders hohes Maß an Sicherheit kann man eine weitere Replik für die Disaster-Recovery (DR) an einem anderen Ort erstellen. Diese asynchrone opie wird über Standard IP-WANs erstellt. Grafik: Datacore Software Datacores»SANsymphony-V«steht für eine Hardware-unabhängige Speichervirtualisierung. Monitoring und Analyse Natürlich ist auch interessant, was hinter den ulissen geschieht. Die Ausstattung der umfangreicheren Software-Pakete bietet dafür wertvolle Einblicke. Echtzeit- Diagramme beschreiben akkurate Metriken der I/O-Antwortzeiten und des relativen apazitätsverbrauchs. Zusätzlich stellen sie Zeitverläufe zur Verfügung, anhand derer sich nachvollziehen lässt, wie das gesamte System bei zusätzlichen Anfragen reagiert und wann Spitzenzeiten üblicherweise auftreten. Heat-Maps zeigen die relative Distribution von Datenblöcken zwischen Flash, SSDs und anderen Speichermedien, inklusive Cloud-basierter Archive. Solid-State-Technologien bieten eine attraktive Lösung, die Geschwindigkeit der kritischen Datenbanken-Workloads zu beschleunigen. Verwendet man SSDs im Zusammenspiel mit schnellen Festplatten und hoher apazität gesetzt den Fall, dass Massenspeicher bereits an Ort und Stelle sind kann ein angemessenes Verhältnis von ausgezeichneten Reaktionszeiten und wirtschaftlichen Investitionen geschaffen werden. Um dieses Gleichgewicht in einem virtualisierten Szenario zu schaffen, empfiehlt es sich die neue Hardware gemeinsam mit hardwareunabhängiger Speichervirtualisierungs-Software einzusetzen. Dies schafft die optimalen Voraussetzungen für die Integration von Flash/SSDs in einer gut abgestimmten, unterbrechungsfreien High-Performance-Umgebung, die alle Vorteile von Software-definierten Storage-Infrastrukturen mit Datacore SANsymphony-V nutzt. Weitere Informationen Typische Verteilung der Festplatten im Rechenzentrum. Datacore Software GmbH Bahnhofstr. 18, Unterföhring Tel: +49 (0)89/ Oktober 2013 Eine Publikation von

16 16 Advertorial Einkaufsführer Storage Schnellerer Datenbankzugriff mit»zd-xl SQL Accelerator«SQL-Server-Beschleunigung: Es könnte so einfach sein Speziell zur Beschleunigung von SQL-Servern ist die Flash-Lösung»ZD-XL SQL Accelerator«von OCZ konzipiert. Die Algorithmen der PCIe-arte steigern Datenbankzugriffe um das bis zu 25-fache. Die höhere Performance entwickelt das System sowohl in SAN-losen wie auch in SAN-basierten Umgebungen. Allon Cohen, OCZ Technology IT-Manager sehen sich der Herausforderung gegenüber, den besten Lösungsweg zu finden und durch den Einsatz von Flash-Speichern im Rechenzentrum Performance-Engpässe für Anwendungen zu überwinden, ohne bewährte Nutzungsmodelle für Enterprise-Anwendungen zu unterbrechen. Die optimale Lösung für die Beschleunigung einer Anwendung, wie beispielsweise Microsoft»SQL Server«, erfordert die Fähigkeit, sich nahtlos in die Benutzer-Umgebungen einzupassen und gleichzeitig die ollektion wichtiger Bestandteile durch optimierte Softund Hardware-Elemente anzubieten. Idealerweise sollte die Gesamtlösung auch eine optimierte Management-GUI für die Anwendungsumgebung bieten, um IT-Manager einfach und sicher hindurchzuführen. Der SSD-Flash-Speicher ist der beste Ort, um jene»hot Data«zu speichern, auf die häufig zugegriffen wird, da sie im Gegensatz zu Festplatten ohne bewegliche Teile auskommen und dadurch Random Datenzugriffe in Datenbanken (DB) mühelos handhaben. Eine einzige Hostbasierte Flash-Beschleunigungskarte kann Tausende von Festplatten in einem SAN- Array überflüssig machen um die gleiche IOPS-Leistung zu erzeugen. Andererseits werden TBytes an Daten auf Festplatten gespeichert. Die unst besteht darin, herauszufinden, welche Daten wichtig und es wert sind, auf der SSD zwischengespeichert zu werden. urz: auf SSDs gespeicherte Daten müssen schnell erreichbar sein, sowie richtig und relevant für die Anforderungen der Datenbank-Anwendung. Hier greift die neue OCZ-Speicherlösung»ZD-XL SQL Accelerator«, als Plugand-Play-Lösung zur Beschleunigung von SQL-Servern. Es werden die Schlüsselelemente adressiert, auf die speziell bei der Entwicklung der ZD-XL-SQL-Accelerator-Lösung eingegangen wurde, um SQL-Server-Anwendungen effizient zu beschleunigen: Flash-Volumen: Vorrübergehende alkulationstabellen, wie»tempdb«, lassen sich effizient auf den Flash-Volumen im Server platzieren. Wenn eine hohe Verfügbarkeit sichergestellt ist, können auch zusätzliche Dateien wie Protokolle von der extrem hohen Lese-/Schreib-Performance des Host On-Flash-Datenträgers profitieren. Flash-Caching: Größere Datenbank- Volumen haben möglicherweise keinen Platz auf dem Flash-Speicher im Server. Allerdings ermöglicht die optimierte Nutzung des Flash-Cachings für Hot-Data Basierend auf einer einzigen SQL-Server-2012-Anwendung, die acht standardisierte Anfragen beantworten muss, zeigen durchschnittliche Data-Warehouse-Abfrage- Antwortzeiten von HDDs und ZD-XL, leichte bis starke Leistungsabfälle bei HDDs. Grafik: OCZ Technology Eine Publikation von Oktober 2013

17 Einkaufsführer Storage Advertorial 17 sogar mit kleineren Flash-apazitäten eine effiziente Beschleunigung von sehr großen Datenbanken. Optimierung der Caching-Policy: Die Verwendung von Anwendungs-optimierter Policy sorgt dafür, dass hohe Trefferquoten erzielt werden und die richtigen Daten zum richtigen Zeitpunkt für SQL- Server zur Verfügung stehen, sowohl für Online Transaktionen (OLTP) als auch Analyse-Workloads. Dynamisches Vorwärmen des Caches: Die Fähigkeit, den Cache im Vorfeld automatisch für wichtige und anspruchsvolle Aufgaben vorzuwärmen, stellt sicher, dass sich die richtigen und relevanten Daten pünktlich im Cache befinden und dem SQL-Server zur Verfügung stehen. Die effiziente ombination dieser vier Elemente, beschleunigt SQL-Server-Datenbanken um das bis zu 25-fache. Der Vergleich zeigt die Abwicklung von neuen Anträgen für SAN-lose HDD-, SAN-basierte und SAN-lose onfigurationen mit»zd-xl SQL Acceleration«(Abbildung 2). Grafik: OCZ Technology Das Leben von DBAs vereinfachen Ein weiterer Vorteil des neuen ZD-XL- Accelerator sind die Implementierungs- Assistenten, welche Datenbank-Administratoren (DBAs) für eine effiziente Beschleunigung und ein schnelles Plugand-Play-Set-Up in bestehende SQL-Server durch Best-Practice-Modelle ihrer Flash-basierten Ressourcen führen. Der ZD-XL-SQL-Accelerator-Management- Assistent überwacht auch die verbesserte Performance, die den SQL-Servern zur Verfügung gestellt wird. 25x schnellere Performance Da SQL-Server-Anwendungen Datenzugriffs-intensiv sind, ist ihre Leistung stark von I/O-Latenzzeiten und Bandbreiten abhängig. Die Geschwindigkeit des Datenzugriffs beinhaltet die benötigte Zeit, um Daten zu lokalisieren, analysieren und verarbeiten, um Nutzern den benötigten Geschäftseinblick zu gewähren, wann sie ihn brauchen. Damit eine große Anzahl an Nutzern ohne Probleme bedient werden kann und um die Benutzerfreundlichkeit der SQL-Server-Anwendungen zu maximieren, muss die zugrunde liegende Speicherlatenz und die transaktionalen IOPS optimale Performance liefern. Als ersten Schritt zur SQL-Server-Beschleunigung sollten IT-Manager sicherstellen, dass die SSD-arte die Fähigkeit besitzt, Datenbanken (wie tempdb) parallel auf einem Flash-Volumen zu hosten. Gleichzeitig sollen andere Datenbanken den Flash als Cache nutzen können. Dies gilt auch für die SAN-lose Umgebung, in der der ZD-XL SQL Accelerator über neue Zugriffe für 50 Nutzer generierte. Die gleiche onfiguration ohne ZD-XL konnte dagegen nur zirka produzieren. Abbildung 2 zeigt die höchste Transaktionsrate der SAN-losen HDD-, der SANbasierten und der SAN-losen HDD-onfiguration, letztere durch den ZD-XL Accelerator beschleunigt. Die Zugabe des ZD-XL SQL Accelerators hat die Transaktionsleistung nicht nur deutlich erhöht, sondern zeigt auch, dass die internen HDDs deutlich besser beschleunigt werden als es in einer SAN-Umgebung der Fall ist. Daher könnten IT-Verantwortliche interne Server-Festplatten mit dem ZD-XL Accelerator beschleunigen und den Bedarf für kostenintensive Back-End-SANs eliminieren Fazit:»Ausgezeichneter SQL-Beschleuniger Im Mai 2013 wurde der OCZ ZD-XL SQL Accelerator mit dem Award»Best of Interop«in der ategorie DataCenter & Storage ausgezeichnet. Diese prestigeträchtige Auszeichnung einer Jury, bestehend aus etablierten IT-Redakteuren und Analysten, würdigt die Innovationskraft und den technologischen Fortschritt. Statement von Interop-Hauptjuror Steven Hill:»OCZ Technology hat ein interessantes und einzigartiges onzept für seine neue, SSD-basierte, Speicher/ Caching-Lösung. Anstatt ein allgemeines Caching-Verfahren zu nutzen, wie es die meisten anderen PCIe-SSD-Optionen tun, zielt der ZD-XL SQL Accelerator darauf ab, die Leistung von SQL-Servern zu verbessern. Diese PCIe-arte beinhaltet eine starke ombination: eine hochentwickelte, SQL-optimierte `Entscheidungsmaschine, blitzschneller Flash-Speicher und eine geniale Implementierungs-Software. Administratoren von Datenbanken können die Caching-Variablen fein einstellen und somit die Leistung einer Vielzahl von Work loads optimieren.«die Geheimzutat ist hier ein Data-Path- Cache-Director mit niedriger Latenz, der die Datenanforderungen zum Flash hin filtert. Dies passiert im Gleichschritt mit einer Cache-Analyse-Funktionseinheit, die erweiterte und statistisch optimierte Entscheidungen trifft, welche Daten zwischengespeichert werden. Das System überwacht und stimmt nicht nur ständig dynamisch die aktuellen Caching-Bedürfnisse ab, sondern bietet auch eine regelbasierte Funktion zum Vorwärmen des Cache. Hier können Administratoren jene Cache-Inhalte im Vorfeld hochladen lassen, die für bestimmte Workloads benötigt werden, um diese zu bestimmten Zeiten auszuführen. Weitere Informationen OCZ Technology Group, Inc Vertrieb Deutschland Oktober 2013 Eine Publikation von

18 18 Advertorial Einkaufsführer Storage»ARCserve r16.5«sicherung für virtuelle und physische Daten Eine Lösung für alle Backup-Szenarien Eine Backup-Lösung muss in der Lage sein, eine heterogene IT-Infrastruktur mit physischen und virtuellen Servern miteinander zu verbinden. Hier setzt CA mit der Software-Familie rund um»arcserve r16.5«an. Dominik Wiedel, TIM Eines der schwierigsten Stadien beim Wechsel auf eine neue Technologie ist die Übergangszeit, während der die alte und die neue Welt parallel nebeneinander bestehen. An diesem Punkt befinden sich momentan viele Unternehmen, die ihre Rechenzentren Zug um Zug virtualisieren und eventuell zu einer Private-Cloud weiterentwickeln möchten: Viele Anwendungen und Server haben sie bereits in virtuelle Maschinen verpackt. Gleichzeitig laufen jedoch auf physischen Servern immer noch einige Anwendungen, die sich in der aktuellen Version entweder nicht virtualisieren lassen oder bei denen das im Moment nicht sinnvoll erscheint. Insbesondere Datenbanken stellen häufig Problemfälle dar. Auch auf die Backup-Lösung selbst kommen damit neue Anforderungen zu: Sie muss in der Lage sein, die verschiedenen Welten miteinander zu verbinden und beispielsweise die physischen Host- Server genauso sichern zu können wie die darauf eingerichteten virtuellen Maschinen. Dazu gehört auch ein Applikationsschutz für virtualisierte Anwendungen wie Microsoft»Exchange«,»SQL Server«oder»SharePoint«sowie die Möglichkeit, einen granularen Restore durchzuführen. CA»ARCserve«ist eine der führenden Lösungen für die Sicherung von physischen und virtualisierten Umgebungen. Es handelt sich dabei um eine Software- Familie, zu der die Produkte CA»ARCserve D2D«,»ARCserve Backup«,»ARCserve Replication & High Availability«und»ARCserve Central Apps«gehören. Mit der Version r16.5 ist nun ein neues Release verfügbar, das Windows 8 und Windows Server 2012 inklusive Hyper-V 3.0 unterstützt und deren neue Features für seine Sicherungen und die Replikation nutzt. Ebenfalls neu ist die Unterstützung für das aktuelle Exchange 2013 und Sharepoint Schnelle Sicherungen auf Festplatten Das ürzel D2D steht für Disk-to-Disk und beschreibt damit auch schon die Grundfunktionalität der Software. Sie führt Backups von Festplatte zu Festplatte durch, die Sicherungen auf Tape sind in Verbindung mit Arcserve Backup möglich. Festplatten haben gegenüber Magnetbändern den Vorteil, dass Backup- und Restore-Vorgänge erheblich schneller ablaufen. Arcserve D2D arbeitet hierbei mit einer Snapshot-Funktion, die den aktuellen Zustand der Datenträger aufnimmt und sichert. In der neuen Version r16.5 unterstützt Arcserve D2D das neue»resilient File System«(ReFS) von Windows Server 2012 und Windows 8. Der Anwender profitiert beim Einsatz von ReFS von einer höheren Datensicherheit, als sie das bisherige Standard-Filesystem NTFS bot. Ebenfalls unterstützt werden anwendungskonsistente Backup- und Restore-Läufe der Datenbanken von Exchange und Sharepoint Falls gewünscht, können diese Snapshots mit D2D im Viertelstunden-Takt erstellt werden. Auch das Wiederherstellen der Daten ist in Minutenschnelle erledigt. Sogar ein Bare-Metal-Recovery, also die komplette Wiederherstellung eines ausgefallenen Systems auf der gleichen oder einer anderen Hardware, lässt sich mithilfe der Snapshot- Technik in kürzester Zeit durchführen. Das gilt sowohl für physische wie auch für virtualisierte Systeme. Durch die von CA entwickelte und patentierte I²-Technologie ist es möglich, auch für virtuelle Maschinen eine unbegrenzte Anzahl von inkrementellen Backups zu erstellen und somit die zu sichernde Datenmenge zu reduzieren. Die Software bietet Unternehmen, die ein Tool für die professionelle Sicherung ihrer Daten von physischen und virtualisierten Servern suchen, eine optimale Lösung. Arcserve D2D ist besonders gut Eine Publikation von Oktober 2013

19 Einkaufsführer Storage Advertorial 19 für kleine und mittlere Unternehmen geeignet. Für den Einsatz in großen onzernen und Rechenzentren empfiehlt sich die Verbindung mit Arcserve Backup. Arcserve D2D ist die richtige Wahl für Unternehmen mit einer festplattenbasierten Windows-Infrastruktur, die auch im Server-Bereich auf Microsoft-Produkte wie Exchange und Sharepoint setzen. Lösung für Backup und Restore CA Arcserve Backup r16.5 ist eine umfassende Backup-Lösung und für alle Sicherungsbelange und -medien geeignet. Die Software führt Backups von physischen und virtualisierten Umgebungen auf Festplatten, Tapes und auch in die Cloud aus. Hierbei bietet Arcserve Backup Unterstützung für die führenden Cloud-Anbieter. Mithilfe der Definition von Tier-Leveln lassen sich die Sicherungen auch zeitlich und nach Medientyp steuern. Ältere, längere Zeit nicht benutzte Daten werden beispielsweise zur langfristigen Aufbewahrung automatisch von der Festplatte auf Tapes oder auch in die Cloud archiviert. Die Software unterstützt alle wichtigen Betriebssysteme, darunter auch Windows Server 2012 und Windows 8, und bietet Schnittstellen zu Datenbank- Anwendungen wie Oracle, SAP,»Lotus Domino«, Informix, Sybase oder Microsoft SQL Server. Zudem kann sie genau wie Arcserve D2D auf die Datenbanken von Exchange und Sharepoint 2013 zugreifen und anwendungskonsistente Sicherungen und Wiederherstellungen durchführen. Zusätzlich lassen sich von Arcserve D2D erstellte Snapshots mithilfe von Arcserve Backup einfach und schnell auf Tape sichern. Die Datenflut ist weiterhin eine große Herausforderung für Administratoren. In Arcserve Backup ist eine Datendeduplizierung integriert, mit welcher es möglich ist, im Idealfall das Datenvolumen der Sicherungen um bis zu 90 Prozent zu verringern. Durch den Einsatz einer solchen Lösung werden Speichermedien wesentlich effizienter genutzt und osten gespart. Hierbei unterstützt zusätzlich die Fähigkeit zum Erzeugen von synthetischen Voll-Backups. Nach einer ersten omplettsicherung erzeugt sie lediglich noch platzsparende, schnell übertragbare inkrementelle Backups, die sie zu einem definierten Zeitpunkt mit dem ursprünglichen omplett-backup zu einer neuen vollständigen Sicherung kombiniert. Bei Restore-Vorgängen kann der Administrator somit immer auf ein Voll-Backup zurückgreifen. Das Wiederherstellen der Daten erfolgt auf dieser Basis wesentlich schneller und ist somit bedeutend kostengünstiger als wenn zunächst mehrere inkrementelle Backups mit der letzten omplettsicherung zusammengeführt werden müssten. Als zentrales Backup-Produkt von CA liefert Arcserve Backup zusätzlich die Tools für die Verwaltung der gesamten Backup-Infrastruktur. So bekommt der Administrator zum einen ein übersichtliches Netzwerkdiagramm mit sämtlichen Servern, Speichergeräten und sonstigen Geräten an die Hand, das die Beziehungen der omponenten untereinander und zu den Mediaservern von Arcserve Backup grafisch darstellt. Daten repliziert und hochverfügbar Unternehmen mit mehreren entfernten Standorten benötigen häufig eine Replikation der Daten in die Zentrale. Mit einer Replikation, wie sie CA»ARCserve Replication«ermöglicht, lassen sich die Daten von Niederlassungen ohne sichere Backup-Infrastruktur per LAN oder WAN ins zentrale Rechenzentrum übertragen, wo sie anschließend für Restore-Vorgänge bereitstehen. Das funktioniert mit Windows-Servern bis zur Version 2012 genauso wie mit Linux und Unix. Die Flexibilität des Produkts geht aber noch weiter: So ist es beispielsweise auch möglich, physische Server in virtuelle zu replizieren und umgekehrt.»arcserve RHA«bietet eine Unterstützung für die drei am weitesten verbreiteten Virtualisierungs-Produkte auf dem Markt, also für VMware»vSphere«, Microsoft Hyper-V inklusive Version 3.0 und Citrix»XenServer«. Die High-Availability-omponente von Arcserve sorgt dafür, dass im Falle eines Server-Ausfalls sofort und ohne dass die Anwender es bemerken, die replizierte Maschine einspringt und dessen Aufgaben übernimmt. Dank der Unterstützung für die genannten Virtualisierungs-Produkte darf der replizierte Server auch in einer virtuellen Umgebung laufen, was die osten für die erforderliche Hardware deutlich senkt. Über die mehrfache Hochverfügbarkeit kann der Administrator ein Failover zu mehreren Replika-Servern konfigurieren. Auf diese Weise lässt sich eine Strategie aufbauen, bei der ein betroffener Server im atastrophenfall sowohl lokal wie auch zentral wiederhergestellt wird. Tools für Verwaltung und virtuelle Maschinen Die Arcserve Central Apps greifen auf eine offene Schnittstelle von Arcserve zu und erweitern die Backup-Lösung um zusätzliche Funktionalität. Der»ARCserve Central Protection Manager«installiert eine webgestützte onsole, über die der Administrator sämtliche per Arcserve D2D geschützten Server und Workstations zentral verwalten kann. Ohne diese App erfolgt das Management des Snapshot- Moduls direkt auf dem Server, auf dem es eingerichtet ist. Die zweite App,»ARCserve Central Reporting«, führt die Berichte von Arcserve D2D und Arcserve Backup zusammen und ermöglicht damit einen Überblick über den Zustand aller verwalteten Geräte, Einstellungen und Richtlinien. Das CA»ARCserve Central Host-Based VM Backup«lässt den Administrator in einem Schritt sämtliche Gastsysteme auf einem mit Vmware eingerichteten Host- Server sichern. Dabei greift die App auf die Funktion Change Block Tracking (CBT) von Vmware Vsphere zu, um lediglich die veränderten Datenblöcke zu sichern. Mit»ARCserve Central Virtual Standby«schließlich wird die Reaktionszeit von ARCserve D2D beim Restore drastisch verkürzt. Fazit CA Arcserve ist eine omplettlösung für sämtliche Bereiche der Datensicherung. Sie unterstützt physische Server genauso wie virtuelle Maschinen, sichert Daten auf Festplatten genauso wie auf Tape, sie bietet eine umfangreiche Funktionalität für Replikation und Hochverfügbarkeit. Unternehmen erhalten mit diesem Produkt und seinen einzelnen omponenten eine einheitliche Backup-Umgebung über sämtliche Sicherungsaufgaben hinweg, in der sowohl Sicherungen organisiert oder beispielsweise auch eine Replikation in ein zweites Rechenzentrum eingerichtet werden kann. Weitere Informationen TIM AG Schoßbergstraße Wiesbaden Tel / Oktober 2013 Eine Publikation von

20 20 Cloud Einkaufsführer Storage Hands-On:»OpenStack«IaaS-Cloud-Service einrichten Cloud im Eigenbau Mit»OpenStack«können Administratoren eigene IaaS-Clouds nach dem Vorbild von Amazon aufbauen und betreiben. erklärt in diesem Praxis-Workshop den Aufbau und die onfiguration einer IaaS-Cloud-Testumgebung. Max Lessel Zu den derzeit populärsten IaaS-Cloud- Lösungen zählt»openstack«, das 2010 vom US Internet-Provider Rackspace und der Nasa gemeinsam entwickelt wurde. Technologisch basiert Openstack auf dem Nasa-Projekt»Nebula«aus dem auch ein zweites Open-Source-Cloud-Projekt»OpenNebula«hervorging. Modulares Miteinander Openstack besteht aus einer Reihe eng verzahnter Module, die auf einem System oder verteilt über mehrere Rechner laufen können: Der Identity-Service»eystone«verwaltet»Tenants«(Mandanten), Benutzer, Gruppen, Rechte und vergibt Authentisierungs-Tokens ähnlich wie»erberos«. Die Compute Nodes und die darauf laufenden virtuellen Maschinen verwaltet»nova«. Als Hypervisoren unterstützt Nova»VM«,»Xen«und auch die Linux- Container»LXC«. In der Praxis kommt dabei überwiegend VM zum Einsatz. Nova verfügt auch über einen simplen Netzwerk-Dienst»Nova-Network«, der die VM-Netzwerke über Bridges anbindet. Das genügt für simple Demo-Installationen.In großen Multi-Node-Setups verwaltet das Netzwerk dann der Dienst»Neutron«, welcher auf dem»openvswitch«aufsetzt. Die Steuerung der kompletten Openstack-Umgebung kann auf der ommandozeile und in Skripten erfolgen. Für Cloud-Admin-Einsteiger empfiehlt sich»horizon«das Web-Interface. Dieses dient später auch den Cloud-Nutzern als Selfservice-Portal über das sie sich VMs aus vorgegebenen Templates erstellen dürfen. Zudem verfügt Openstack über drei verschiedene Storage-Dienste:»Glance«als Image-Service verwaltet Disk-Images. Das können VM-Vorlagen sein oder individuelle Daten-Disks für VMs. Glance Eine ausgerollte VM kennt nur ihre interne IP-Adresse. Die Zugriffe auf die externe Floating-IP leitet der Host via Firewall-Regeln weiter. nutzt iscsi als Protokoll, um Images Node-übergreifend zur Verfügung zu stellen. Der Opjekt-Storage»Swift«ist ein alleinstehendes Feature von Openstack, welches nicht für die Operation der VMs nötig ist und nur eine Speichermöglichkeit für Objektdaten offeriert. Swift stellt eine simple Rest-API für den Objekt- Storage zur Verfügung, der die Daten dann redundant auf mehrere Nodes verteilt. Als Speicher-Backend für Swift und Glance dient»cinder«der Block-Storage- Dienst von Openstack. Er kontrolliert die Platten der einzelnen Nova-Nodes. Viele Wege zur Openstack-Cloud Openstack ist für fast jede Linux-Distribution erhältlich. Zu den vielen verschiedenen Distributionen gibt es auch eine Reihe ganz unterschiedlicher Installations- Mechanismen. Sehr häufig richtet das mächtige»packstack«-skript mit Hilfe des onfigurations- und Software-Verteilungs-Tools»Puppet«die Umgebung ein. Red Hat offeriert für seine kommerzielle Openstack-Implementierung eine angepasste ombo aus Puppet und dem Systemverwaltungs-Tool»Foreman«und kann damit automatisiert große Umgebungen mit Openstack ausrollen. In diesem Workshop beschreibt eine simple»all-in-one«- onfiguration, die alle Module auf einem einzigen Server installiert. Dieses Setup nutzt Nova-Network statt Neutron, da das simpler zu verwalten ist und auch mit nur einem LAN-Adapter im Host zurecht kommt. Im All-In-One-Setup erstellt Nova-Network einfach eine Bridge auf dem Loopback-Interface. Als Open-Stack-Distribution kommt RDO zum Einsatz, die frei verfügbare Openstack-Variante von Red Hat. Das Setup erfordert einen Server mit acht GByte RAM und einer VT-tauglichen CPU. Als Betriebssystem wird»red Hat Enter- Eine Publikation von Oktober 2013

Software Defined Storage in der Praxis

Software Defined Storage in der Praxis Software Defined Storage in der Praxis Jens Gerlach Regional Manager West 1 Der Speichermarkt im Umbruch 1985 2000 Heute Herausforderungen Serverspeicher Serverspeicher Serverspeicher Hyper-konvergente

Mehr

Dunkel Cloud Storage. Der sichere Cloud-Speicher für Unternehmen

Dunkel Cloud Storage. Der sichere Cloud-Speicher für Unternehmen Dunkel Cloud Storage Der sichere Cloud-Speicher für Unternehmen Was ist Dunkel Cloud Storage? Dunkel Cloud Storage (DCS) stellt Ihnen Speicherplatz nach Bedarf zur Verfügung, auf den Sie jederzeit über

Mehr

TIM AG. NetApp @ BASYS. Dipl. Informatiker (FH) Harald Will Consultant

TIM AG. NetApp @ BASYS. Dipl. Informatiker (FH) Harald Will Consultant NetApp @ BASYS Dipl. Informatiker (FH) Harald Will Consultant Organisatorisch Teilnehmerliste Agenda NetApp @ BASYS Data ONTAP Features cdot die neue Architektur Flash die neue Technologie Live Demo Agenda

Mehr

Windows Server 2012 R2 Storage

Windows Server 2012 R2 Storage Tech Data - Microsoft Windows Server 2012 R2 Storage MS FY14 2HY Tech Data Microsoft Windows Server 2012 R2 Kontakt: Microsoft @ Tech Data Kistlerhofstr. 75 81379 München microsoft-sales@techdata.de +49

Mehr

Virtualisierung im Rechenzentrum

Virtualisierung im Rechenzentrum in wenigen Minuten geht es los Virtualisierung im Rechenzentrum Der erste Schritt auf dem Weg in die Cloud KEIN VOIP, nur Tel: 030 / 7261 76245 Sitzungsnr.: *6385* Virtualisierung im Rechenzentrum Der

Mehr

herzlich vsankameleon Anwendungsbeispiel Titelmasterformat durch Klicken bearbeiten willkommen Titelmasterformat durch Klicken bearbeiten

herzlich vsankameleon Anwendungsbeispiel Titelmasterformat durch Klicken bearbeiten willkommen Titelmasterformat durch Klicken bearbeiten herzlich willkommen vsankameleon Anwendungsbeispiel Powered by DataCore & Steffen Informatik vsan? Kameleon? vsan(virtuelles Storage Area Network) Knoten Konzept Titelmasterformat Alle HDD s über alle

Mehr

Software Defined Storage

Software Defined Storage Software Defined Storage - Wenn Speicher zum Service wird - Copyright 2015 DataCore Software Corp. All Rights Reserved. Copyright 2015 DataCore Software Corp. All Rights Reserved. Über uns... Über 25.000

Mehr

EMC. Data Lake Foundation

EMC. Data Lake Foundation EMC Data Lake Foundation 180 Wachstum unstrukturierter Daten 75% 78% 80% 71 EB 106 EB 133 EB Weltweit gelieferte Gesamtkapazität Unstrukturierte Daten Quelle März 2014, IDC Structured vs. Unstructured

Mehr

Telekom Deutschland GmbH. Erleben, was verbindet. kontaktieren Sie uns hier am Stand oder Ihren Kundenberater.

Telekom Deutschland GmbH. Erleben, was verbindet. kontaktieren Sie uns hier am Stand oder Ihren Kundenberater. Vernetztes Vernetztes Leben Leben und und Arbeiten Arbeiten Telekom Deutschland GmbH. Erleben, was verbindet. kontaktieren Sie uns hier am Stand oder Ihren Kundenberater. Das virtuelle Rechenzentrum Heiko

Mehr

virtualization and clustering made simple OSL AKTUELL 2015

virtualization and clustering made simple OSL AKTUELL 2015 virtualization and clustering made simple OSL AKTUELL 2015 Schöneiche bei Berlin, 22. April 2015 Über OSL Entwicklung von Infrastruktursoftware (vom Treiber bis zur Oberfläche) im Umfeld von Rechenzentren

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

Copyright 2015 DataCore Software Corp. All Rights Reserved. 1

Copyright 2015 DataCore Software Corp. All Rights Reserved. 1 Copyright 2015 DataCore Software Corp. All Rights Reserved. 1 Software Defined Storage - wenn Storage zum Service wird - Jens Gerlach Regional Manager West Copyright 2015 DataCore Software Corp. All Rights

Mehr

Der Weg zur modernen IT-Infrastruktur mit FlexPod

Der Weg zur modernen IT-Infrastruktur mit FlexPod Der Weg zur modernen IT-Infrastruktur mit FlexPod Der Weg zur modernen IT-Infrastruktur mit FlexPod Das Herzstück eines Unternehmens ist heutzutage nicht selten die IT-Abteilung. Immer mehr Anwendungen

Mehr

Backup & Recovery Integrierte Komplettlösung

Backup & Recovery Integrierte Komplettlösung & Backup & Recovery Integrierte Komplettlösung CommVault Simpana + NetApp E-Series Die schnelle, effiziente und hochverfügbare Backup und Recovery- Lösung von ABO - Jetzt zum attraktiven Bundle-Preis bis

Mehr

Software oder Appliance basierende Deduplikation Was ist die richtige Wahl? Storagetechnology 2010

Software oder Appliance basierende Deduplikation Was ist die richtige Wahl? Storagetechnology 2010 Software oder Appliance basierende Deduplikation Was ist die richtige Wahl? Storagetechnology 2010 Frank Herold Manager PreSales CEE Quantums Portfolio StorNextSoftware DXiSerie ScalarSerie ManagementTools

Mehr

Magirus der IT-Infrastruktur und -Lösungsanbieter. Herzlich willkommen! 17.4. München 26.4. Düsseldorf. Seite 1. 03.5. Frankfurt

Magirus der IT-Infrastruktur und -Lösungsanbieter. Herzlich willkommen! 17.4. München 26.4. Düsseldorf. Seite 1. 03.5. Frankfurt Herzlich willkommen! 17.4. München 26.4. Düsseldorf Seite 1 03.5. Frankfurt Optimierung von IT-Infrastrukturen durch Serverund Storage-Virtualisierung IT-Infrastruktur- und -Lösungsanbieter Produkte, Services

Mehr

"Es werde Cloud" - sprach Microsoft

Es werde Cloud - sprach Microsoft "Es werde Cloud" - sprach Microsoft Verschiedene Lösungsszenarien für das Cloud Betriebsmodell mit Schwerpunkt auf der Produktfamilie Microsoft System Center 2012 und dem Microsoft Windows Server 2012

Mehr

Ein Unternehmen der ADN Gruppe. Eine komplette Private-Cloud speziell für KMU mit nur zwei physikalischen Standard-Servern erbauen?

Ein Unternehmen der ADN Gruppe. Eine komplette Private-Cloud speziell für KMU mit nur zwei physikalischen Standard-Servern erbauen? Ein Unternehmen der ADN Gruppe Eine komplette Private-Cloud speziell für KMU mit nur zwei physikalischen Standard-Servern erbauen? Die Lösung: DataCore Storage-Virtualisierung mit Windows Server 2012 und

Mehr

Heterogenes Speichermanagement mit V:DRIVE

Heterogenes Speichermanagement mit V:DRIVE Heterogenes Speichermanagement mit V:DRIVE V:DRIVE - Grundlage eines effizienten Speichermanagements Die Datenexplosion verlangt nach innovativem Speichermanagement Moderne Businessprozesse verlangen auf

Mehr

Kleine Speichersysteme ganz groß

Kleine Speichersysteme ganz groß Kleine Speichersysteme ganz groß Redundanz und Performance in Hardware RAID Systemen Wolfgang K. Bauer September 2010 Agenda Optimierung der RAID Performance Hardware-Redundanz richtig nutzen Effiziente

Mehr

Klein Computer System AG. Portrait

Klein Computer System AG. Portrait Klein Computer System AG Portrait Die Klein Computer System AG wurde 1986 durch Wolfgang Klein mit Sitz in Dübendorf gegründet. Die Geschäftstätigkeiten haben sich über die Jahre stark verändert und wurden

Mehr

PROFI UND NUTANIX. Portfolioerweiterung im Software Defined Data Center

PROFI UND NUTANIX. Portfolioerweiterung im Software Defined Data Center PROFI UND NUTANIX Portfolioerweiterung im Software Defined Data Center IDC geht davon aus, dass Software-basierter Speicher letztendlich eine wichtige Rolle in jedem Data Center spielen wird entweder als

Mehr

Eine komplette Private-Cloud mit nur zwei physikalischen Standard-Servern erbauen?

Eine komplette Private-Cloud mit nur zwei physikalischen Standard-Servern erbauen? Eine komplette Private-Cloud mit nur zwei physikalischen Standard-Servern erbauen? Die Lösung: DataCore Storage-Virtualisierung mit Windows Server 2012 und Hyper-V Erleben Sie live auf unserer Roadshow:

Mehr

STORAGE IN DEUTSCHLAND 2013

STORAGE IN DEUTSCHLAND 2013 Fallstudie: NetApp IDC Market Brief-Projekt STORAGE IN DEUTSCHLAND 2013 Optimierung des Data Centers durch effiziente Speichertechnologien netapp Fallstudie: Thomas-Krenn.AG Informationen zum Unternehmen

Mehr

Klicken. Microsoft. Ganz einfach.

Klicken. Microsoft. Ganz einfach. EMC UNIFIED STORAGE FÜR VIRTUALISIERTE MICROSOFT- ANWENDUNGEN Klicken. Microsoft. Ganz einfach. Microsoft SQL Server Microsoft SQL Server-Datenbanken bilden die Basis für die geschäftskritischen Anwendungen

Mehr

Acronis Backup Advanced für Citrix XenServer

Acronis Backup Advanced für Citrix XenServer Acronis Backup Advanced für Citrix XenServer Vollständiges Backup und Recovery für Ihre Citrix XenServer- Umgebung! Schützen Sie Ihre komplette Citrix XenServer-Umgebung mit effizienten Backups in einem

Mehr

Presse- Info. CommVaults Cloud-fähige Simpana-Software verfügbar. www.commvault.com

Presse- Info. CommVaults Cloud-fähige Simpana-Software verfügbar. www.commvault.com CommVaults Cloud-fähige Simpana-Software verfügbar Integrationsmöglichkeiten mit Amazon Web Services, EMC, Iron Mountain und Nirvanix ermöglicht Kunden erstmals sicheren, nahtlosen und kosteneffizienten

Mehr

Hyper-Converged - Weniger ist mehr!

Hyper-Converged - Weniger ist mehr! Hyper-Converged - Weniger ist mehr! oder wenn 2 > 3 ist! Name Position 1 Rasches Wachstum bei Hyper-Konvergenz Starke Marktprognosen für integrierte Systeme (Konvergent und Hyper-Konvergent) - 50 % jährlich

Mehr

Dell Data Protection Solutions Datensicherungslösungen von Dell

Dell Data Protection Solutions Datensicherungslösungen von Dell Dell Data Protection Solutions Datensicherungslösungen von Dell André Plagemann SME DACH Region SME Data Protection DACH Region Dell Softwarelösungen Vereinfachung der IT. Minimierung von Risiken. Schnellere

Mehr

Q5 AG Q5 AG S T O R A G E N EU D E F I N I E R T. Das Q5 Team begrüsst Sie zum Storage Innovation Spotlight 2014,mit dem Thema:

Q5 AG Q5 AG S T O R A G E N EU D E F I N I E R T. Das Q5 Team begrüsst Sie zum Storage Innovation Spotlight 2014,mit dem Thema: Q5 AG Das Q5 Team begrüsst Sie zum Storage Innovation Spotlight 2014,mit dem Thema: V ON MIRAGE ZU PREDATOR - E INE ILLUSION WIRD REALITÄT V ON M I R A G E ZU P R E D A T O R? A G E N D A 14:30 Begrüssung

Mehr

Wie unterstützt EMC mit Automatisierung die Anforderungen der Server Virtualisierung?

Wie unterstützt EMC mit Automatisierung die Anforderungen der Server Virtualisierung? Wie unterstützt EMC mit Automatisierung die Anforderungen der Server Virtualisierung? Joachim Rapp Partner Technology Consultant 1 Automation in der Speicher-Plattform Pooling Tiering Caching 2 Virtualisierung

Mehr

Veränderung der Speicherlandschaft durch Speicher-Virtualisierung

Veränderung der Speicherlandschaft durch Speicher-Virtualisierung Veränderung der Speicherlandschaft durch Speicher-Virtualisierung Andreas Sänger Channel Account Manager 1 Speicherbedarf nimmt weiter rasant zu - aber ohne Nachhaltigkeit - 2 Herausforderungen der Speicherarchitekturen

Mehr

Die Ergebnisse der IT- Prioritäten-Umfrage für 2015. DACH-Bericht

Die Ergebnisse der IT- Prioritäten-Umfrage für 2015. DACH-Bericht Die Ergebnisse der IT- Prioritäten-Umfrage für 2015 DACH-Bericht Arbeitsfokus Auf welche dieser Bereiche verwenden Sie die meiste Zeit? Server-Management Betrieb von Rechenzentrum/Infrastruktur Netzwerke

Mehr

Einführung. Worüber muss man sich beim Kauf eines Storagesystems den Kopf zerbrechen? Copyright 2013 DataCore Software Corp. All Rights Reserved.

Einführung. Worüber muss man sich beim Kauf eines Storagesystems den Kopf zerbrechen? Copyright 2013 DataCore Software Corp. All Rights Reserved. Einführung Worüber muss man sich beim Kauf eines Storagesystems den Kopf zerbrechen? Storage Priorities Expand storage capacity Improve storage performance Simplify mgt & provisioning Consolidate storage

Mehr

Sind Cloud Apps der nächste Hype?

Sind Cloud Apps der nächste Hype? Java Forum Stuttgart 2012 Sind Cloud Apps der nächste Hype? Tillmann Schall Stuttgart, 5. Juli 2012 : Agenda Was sind Cloud Apps? Einordnung / Vergleich mit bestehenden Cloud Konzepten Live Demo Aufbau

Mehr

Im Folgenden stellen wir Ihnen die überarbeiteten Leistungsmerkmale von Windows Server 2012 R2 vor.

Im Folgenden stellen wir Ihnen die überarbeiteten Leistungsmerkmale von Windows Server 2012 R2 vor. Microsoft Windows Server 2012 R2 Kapitel 1 Windows Server 2012 R2 Die erprobte Serverplattform Windows Server 2012 baut auf umfangreichen Erfahrungen mit dem Aufbau und dem Betrieb der weltgrößten Cloud-basierten

Mehr

Cloud Computing mit OpenStack

Cloud Computing mit OpenStack Cloud Computing mit OpenStack B1 Systems GmbH http://www.b1-systems.de Cloud Computing Cloud Computing Servicemodelle Software as a Service (SaaS) Platform as a Service (PaaS) Infrastructure as a Service

Mehr

Hybride Cloud Datacenters

Hybride Cloud Datacenters Hybride Cloud Datacenters Enterprise und KMU Kunden Daniel Jossen Geschäftsführer (CEO) dipl. Ing. Informatik FH, MAS IT Network Amanox Solutions Unsere Vision Wir planen und implementieren für unsere

Mehr

Cloud OS. eine konsistente Plattform. Private Cloud. Public Cloud. Service Provider

Cloud OS. eine konsistente Plattform. Private Cloud. Public Cloud. Service Provider Cloud OS Private Cloud Public Cloud eine konsistente Plattform Service Provider Trends 2 Das Cloud OS unterstützt jedes Endgerät überall zugeschnitten auf den Anwender ermöglicht zentrale Verwaltung gewährt

Mehr

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Seit Microsoft Exchange Server 2010 bieten sich für Unternehmen gleich zwei mögliche Szenarien an, um eine rechtskonforme Archivierung

Mehr

HP STOREVIRTUAL STORAGE. Erweiterbarer Speicher für virtualisierte Umgebungen

HP STOREVIRTUAL STORAGE. Erweiterbarer Speicher für virtualisierte Umgebungen STORAGE Erweiterbarer Speicher für virtualisierte Umgebungen STORAGE 1. HP Disk Storage Systeme 2. HP StoreVirtual Hardware 3. HP StoreVirtual Konzept 4. HP StoreVirtual VSA 5. HP StoreVirtual Management

Mehr

Manfred Helber Microsoft Senior PreSales Consultant

Manfred Helber Microsoft Senior PreSales Consultant Manfred Helber Microsoft Senior PreSales Consultant Agenda ROK Vorteile Extended Live Migration Extended Hyper-V Replica Hyper-V Cluster Erweiterungen Storage Quality of Service Auswahl geeigneter Serversysteme

Mehr

Effizienter Einsatz von Flash-Technologien im Data Center

Effizienter Einsatz von Flash-Technologien im Data Center Effizienter Einsatz von Flash-Technologien im Data Center Herbert Bild Solution Marketing Manager Georg Mey Solutions Architect 1 Der Flash-Hype 2 Drei Gründe für den Hype um Flash: 1. Ungebremstes Datenwachstum

Mehr

Virtualisierung im IT-Betrieb der BA

Virtualisierung im IT-Betrieb der BA Virtualisierung, essenzielles Werkzeug in der IT-Fabrik Martin Deeg, Anwendungsszenarien Cloud Computing, 31. August 2010 Virtualisierung im IT-Betrieb der BA Virtualisierung im IT-Betrieb der BA Effizienzsteigerung

Mehr

Software Defined Storage in der Praxis

Software Defined Storage in der Praxis Software Defined Storage in der Praxis - Vorteile und Nutzen für jede Unternehmensgröße - Torsten Welke Regional Manager Nord 1 Speicherbedarf nimmt weiter rasant zu - aber ohne Nachhaltigkeit - 2 Herausforderungen

Mehr

EMC ISILON & TSM. Hans-Werner Rektor Advisory System Engineer Unified Storage Division. Oktober 2013

EMC ISILON & TSM. Hans-Werner Rektor Advisory System Engineer Unified Storage Division. Oktober 2013 EMC ISILON & TSM Hans-Werner Rektor Advisory System Engineer Unified Storage Division Oktober 2013 1 Tivoli Storage Manager - Überblick Grundsätzliche Technologie Incremental Forever Datensicherungsstrategie

Mehr

Das Citrix Delivery Center

Das Citrix Delivery Center Das Citrix Delivery Center Die Anwendungsbereitstellung der Zukunft Marco Rosin Sales Manager Citrix Systems GmbH 15.15 16.00 Uhr, Raum B8 Herausforderungen mittelständischer Unternehmen in einer globalisierten

Mehr

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick:

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Red Hat Storage Server Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Offene Software Lösung für Storage Ansprache über einen globalen Namensraum Betrachtet Storage als einen virtualisierten

Mehr

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG!

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! JUNI 2011 Sehr geehrter Geschäftspartner, (oder die, die es gerne werden möchten) das Thema Virtualisierung oder die Cloud ist in aller Munde wir möchten Ihnen

Mehr

Tutorial Speichernetze

Tutorial Speichernetze Tutorial Speichernetze Speichervirtualisierung Speichernetze Grundlagen und Einsatz von Fibre Channel SAN, NAS, iscsi und InfiniBand dpunkt.verlag 2003 Agenda Probleme in Speichernetzen Speichervirtualisierung

Mehr

IT-Effizienzworkshop bei New Vision GmbH Entry und Midrange Disksysteme

IT-Effizienzworkshop bei New Vision GmbH Entry und Midrange Disksysteme IT-Effizienzworkshop bei New Vision GmbH Entry und Midrange Disksysteme IBM DSseries Familienüberblick DS5100, DS5300 FC, iscsi connectivity (480) FC, FDE, SATA, SSD drives Partitioning, FlashCopy, VolumeCopy,

Mehr

HP P4000 Speichersysteme und Lösungen

HP P4000 Speichersysteme und Lösungen HP P4000 Speichersysteme und Lösungen Rüsten Sie sich für den steigenden Speicherbedarf der Zukunft mit modernen Speichersystemen von HP. Hochverfügbare Lösungen, in denen die einzelnen Knoten nicht nur

Mehr

Private IaaS Cloud mit OpenStack. Sebastian Zielenski Linux/Unix Consultant & Trainer B1 Systems GmbH zielenski@b1-systems.de

Private IaaS Cloud mit OpenStack. Sebastian Zielenski Linux/Unix Consultant & Trainer B1 Systems GmbH zielenski@b1-systems.de Private IaaS Cloud mit OpenStack Sebastian Zielenski Linux/Unix Consultant & Trainer B1 Systems GmbH zielenski@b1-systems.de Vorstellung B1 Systems gegründet 2004 primär Linux/Open Source Themen national

Mehr

Stefan Kusiek BFW-Leipzig

Stefan Kusiek BFW-Leipzig Stefan Kusiek BFW-Leipzig Schnellere Geräte (CPU, HDD, RAM, ) Mehrere Geräte (CPU, HDD, RAM, ) Mehrere Geräte (Rechner, Server, ) Cluster Preiswerter????? Mindestgröße Installation Konfiguration Wartung

Mehr

Version 2.0. Copyright 2013 DataCore Software Corp. All Rights Reserved.

Version 2.0. Copyright 2013 DataCore Software Corp. All Rights Reserved. Version 2.0 Copyright 2013 DataCore Software Corp. All Rights Reserved. VDI Virtual Desktop Infrastructure Die Desktop-Virtualisierung im Unternehmen ist die konsequente Weiterentwicklung der Server und

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

B2D2D2T? B2D2T? DEDUPLIZIERUNG? LÖSUNGSVORSCHLÄGE FÜR IHR BACKUPSZENARIO AM BEISPIEL DER PRODUKTE VON QUANTUM UND SYMANTEC

B2D2D2T? B2D2T? DEDUPLIZIERUNG? LÖSUNGSVORSCHLÄGE FÜR IHR BACKUPSZENARIO AM BEISPIEL DER PRODUKTE VON QUANTUM UND SYMANTEC B2D2D2T? B2D2T? DEDUPLIZIERUNG? LÖSUNGSVORSCHLÄGE FÜR IHR BACKUPSZENARIO AM BEISPIEL DER PRODUKTE VON QUANTUM UND SYMANTEC 19.-20. Juni 2012 Wolfgang Lorenz - Manager Pre-Sales CEE Agenda Multi-Tiered

Mehr

Windows Server 2012 R2 Storage

Windows Server 2012 R2 Storage Tech Data - Microsoft Windows Server 2012 R2 Storage MS FY14 2HY Tech Data Microsoft Windows Server 2012 R2 Kontakt: Microsoft @ Tech Data Kistlerhofstr. 75 81379 München microsoft-sales@techdata.de +49

Mehr

OmniCloud. Sichere Nutzung von Cloud-Speicherdiensten. Ruben Wolf (Fraunhofer SIT)

OmniCloud. Sichere Nutzung von Cloud-Speicherdiensten. Ruben Wolf (Fraunhofer SIT) OmniCloud Sichere Nutzung von Cloud-Speicherdiensten Ruben Wolf (Fraunhofer SIT) Sicus e.v. AK Datenschutz & Security AK Identity & Access Management 25.04.2013 ThyssenKrupp, Essen Inhalt 1. Sicherheit

Mehr

Backup- und Replikationskonzepte. SHE Informationstechnologie AG Patrick Schulz, System Engineer

Backup- und Replikationskonzepte. SHE Informationstechnologie AG Patrick Schulz, System Engineer Backup- und Replikationskonzepte SHE Informationstechnologie AG Patrick Schulz, System Engineer Übersicht Vor dem Kauf Fakten zur Replizierung Backup to Agentless Backups VMware Data Protection Dell/Quest

Mehr

FACTSHEET. Backup «ready to go»

FACTSHEET. Backup «ready to go» FACTSHEET Backup «ready to go» Backup «ready to go» für Ihre Virtualisierungs-Umgebung Nach wie vor werden immer mehr Unternehmensanwendungen und -daten auf virtuelle Maschinen verlagert. Mit dem stetigen

Mehr

CLOUDLÖSUNGEN FÜR DEN MITTELSTAND BUILD YOUR OWN CLOUD

CLOUDLÖSUNGEN FÜR DEN MITTELSTAND BUILD YOUR OWN CLOUD Ihr starker IT-Partner. Heute und morgen CLOUDLÖSUNGEN FÜR DEN MITTELSTAND BUILD YOUR OWN CLOUD In 5 Stufen von der Planung bis zum Betrieb KUNDENNÄHE. Flächendeckung der IT-Systemhäuser IT-Systemhaus

Mehr

Netzwerk-Fileservices am RUS

Netzwerk-Fileservices am RUS Netzwerk-Fileservices am RUS Markus Bader 15.09.2010 RUS AK Storage, Markus Bader, 15.09.2010 Seite 1 Fileservices am RUS Fileserver für Windows innerhalb des RUS-Active Directory Fileserver für Windows

Mehr

Technische Anwendungsbeispiele

Technische Anwendungsbeispiele Technische Anwendungsbeispiele NovaBACKUP NAS Ihre Symantec Backup Exec Alternative www.novastor.de 1 Über NovaBACKUP NAS NovaBACKUP NAS sichert und verwaltet mehrere Server in einem Netzwerk. Die Lösung

Mehr

ROSIK Mittelstandsforum

ROSIK Mittelstandsforum ROSIK Mittelstandsforum Virtualisierung und Cloud Computing in der Praxis Virtualisierung in der IT Einführung und Überblick Hermann Josef Klüners Was ist Virtualisierung? In der IT ist die eindeutige

Mehr

Ersetzen Sie Cisco INVICTA

Ersetzen Sie Cisco INVICTA Ersetzen Sie Cisco INVICTA globits Virtual Fast Storage (VFS) Eine Lösung von globits Hat es Sie auch eiskalt erwischt!? Hat es Sie auch eiskalt erwischt!? Wir haben eine echte Alternative für Sie! globits

Mehr

Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT

Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT Folie 1 VDE-Symposium 2013 BV Thüringen und Dresden Virtualisierung von Leittechnikkomponenten Andreas Gorbauch PSIEnergie-EE Folie

Mehr

Produktinformation workany Stand: 02. April 2013. ITynamics GmbH Industriering 7 63868 Grosswallstadt Tel. 0 60 22-26 10 10 info@itynamics.

Produktinformation workany Stand: 02. April 2013. ITynamics GmbH Industriering 7 63868 Grosswallstadt Tel. 0 60 22-26 10 10 info@itynamics. Produktinformation workany Stand: 02. April 2013 ITynamics GmbH Industriering 7 63868 Grosswallstadt Tel. 0 60 22-26 10 10 info@itynamics.com workany @ Swiss Fort Knox Cloud Computing und Private Cloud

Mehr

WILLKOMMEN 100.000. Quantum ist der weltweit GRÖSSTE Spezialist für Backup, Recovery und Archivierung von Daten.

WILLKOMMEN 100.000. Quantum ist der weltweit GRÖSSTE Spezialist für Backup, Recovery und Archivierung von Daten. 85 der Fortune 100-Unternehmen arbeiten mit Quantum 10 -mal Produkt des Jahres WILLKOMMEN Quantum ist der weltweit GRÖSSTE Spezialist für Backup, Recovery und Archivierung von Daten. 33 Jahre Branchenerfahrung

Mehr

Von heiter bis wolkig Hosting am RRZE Physikalisch Virtuell in der Cloud. 2.2.2010 Daniel Götz daniel.goetz@rrze.uni-erlangen.de

Von heiter bis wolkig Hosting am RRZE Physikalisch Virtuell in der Cloud. 2.2.2010 Daniel Götz daniel.goetz@rrze.uni-erlangen.de Von heiter bis wolkig Hosting am RRZE Physikalisch Virtuell in der Cloud 2.2.2010 Daniel Götz daniel.goetz@rrze.uni-erlangen.de Übersicht Entwicklungen im (Web-)Hosting Physikalisches Hosting Shared Hosting

Mehr

Die Plattform für Ihre Datenfabrik unabhängig von Ort und Zeit

Die Plattform für Ihre Datenfabrik unabhängig von Ort und Zeit Die Plattform für Ihre Datenfabrik unabhängig von Ort und Zeit Ian Schroeder Senior Account Manager, NetApp Deutschland April 2015 noris network > Innovationstagung 2015 Weisheit? Wenn ich die Menschen

Mehr

egs Storage Offensive

egs Storage Offensive egs Storage Offensive Seit mittlerweile 5 Jahren können wir eine enge Partnerschaft zwischen der egs Netzwerk und Computersysteme GmbH und dem führenden Anbieter im Bereich Datenmanagement NetApp vorweisen.

Mehr

Cloud Computing für KMU-Unternehmen. Michael Herkens

Cloud Computing für KMU-Unternehmen. Michael Herkens Cloud Computing für KMU-Unternehmen Michael Herkens Agenda Was ist Cloud Computing? Warum Cloud? Welche Cloud? Was in der Cloud? Wie in die Cloud? Was ist Cloud Computing? Beispiel Sicherheit Verfügbarkeit

Mehr

HYBRID CLOUD IN DEUTSCHLAND 2014

HYBRID CLOUD IN DEUTSCHLAND 2014 Fallstudie: NetApp IDC Multi-Client-Projekt HYBRID CLOUD IN DEUTSCHLAND 2014 netapp Fallstudie: SOCURA GmbH Informationen zum Kunden www.netapp.de Die Malteser haben 700 Standorte in Deutschland, 22.000

Mehr

OASIS on-call Contact Center aus der Cloud

OASIS on-call Contact Center aus der Cloud OASIS on-call Contact Center aus der Cloud OASIS on-call Contact Center Die perfekte ACD für Ihr Geschäft Medienübergreifend und leistungsstark Medienübergreifend, schnell im Einsatz und direkt aus der

Mehr

Dynamic Computing Services Backup-Lösung. Whitepaper Stefan Ruckstuhl

Dynamic Computing Services Backup-Lösung. Whitepaper Stefan Ruckstuhl Dynamic Computing Services Backup-Lösung Whitepaper Stefan Ruckstuhl Zusammenfassung für Entscheider Inhalt dieses Whitepapers Eine Beschreibung einfach zu realisierender Backup-Lösungen für virtuelle

Mehr

Managed Cloud Services

Managed Cloud Services Managed Cloud Services Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Cloud Services

Mehr

Die Cloud und ihre Möglichkeiten. Ihre Cloud- Optionen. Erleben Sie die Zukunft schon jetzt ganz nach Ihren Vorstellungen

Die Cloud und ihre Möglichkeiten. Ihre Cloud- Optionen. Erleben Sie die Zukunft schon jetzt ganz nach Ihren Vorstellungen Die Cloud und ihre Möglichkeiten Ihre Cloud- Optionen Erleben Sie die Zukunft schon jetzt ganz nach Ihren Vorstellungen Eine Lösung, die zu Ihnen passt Bei HP glauben wir nicht an einen für alle passenden,

Mehr

E-Interview mit Herrn Dr. Winokur, CTO von Axxana

E-Interview mit Herrn Dr. Winokur, CTO von Axxana E-Interview mit Herrn Dr. Winokur, CTO von Axxana Titel des E-Interviews: Kostengünstige Datenrettung ohne Verlust und über alle Distanzen hinweg wie mit Enterprise Data Recording (EDR) von Axxana eine

Mehr

VALUESTOR /// MEHRWERT IN DER LANGFRISTIGEN DATENSPEICHERUNG BEST IN DEVELOPMENT AND TECHNOLOGY

VALUESTOR /// MEHRWERT IN DER LANGFRISTIGEN DATENSPEICHERUNG BEST IN DEVELOPMENT AND TECHNOLOGY VALUESTOR /// MEHRWERT IN DER LANGFRISTIGEN DATENSPEICHERUNG BEST IN DEVELOPMENT AND TECHNOLOGY VALUESTOR /// MEHRWERT IN DER LANGFRISTIGEN DATENSICHERUNG Machen Sie sich die Vorteile von Tape zu Nutze,

Mehr

Simplify Business continuity & DR

Simplify Business continuity & DR Simplify Business continuity & DR Mit Hitachi, Lanexpert & Vmware Georg Rölli Leiter IT Betrieb / Livit AG Falko Herbstreuth Storage Architect / LANexpert SA 22. September 2011 Agenda Vorstellung Über

Mehr

Cloud Computing PaaS-, IaaS-, SaaS-Konzepte als Cloud Service für Flexibilität und Ökonomie in Unternehmen

Cloud Computing PaaS-, IaaS-, SaaS-Konzepte als Cloud Service für Flexibilität und Ökonomie in Unternehmen Cloud Computing PaaS-, IaaS-, SaaS-Konzepte als Cloud Service für Flexibilität und Ökonomie in Unternehmen Name: Klaus Tenderich Funktion/Bereich: Director Automation Services Organisation: Basware GmbH

Mehr

Optimierte Verwaltung von Rechenzentren mit vshape. Sofort.

Optimierte Verwaltung von Rechenzentren mit vshape. Sofort. Optimierte Verwaltung von Rechenzentren mit vshape. Sofort. Ich finde es immer wieder faszinierend, dass wir jeden Ort auf der Welt innerhalb von 24 Stunden erreichen können. In der IT müssen wir erst

Mehr

Veränderungen von. Erster Kunde implementiert Innovation. Vorteil im Wettbewerb. Zweiter Kunde implementiert Innovation

Veränderungen von. Erster Kunde implementiert Innovation. Vorteil im Wettbewerb. Zweiter Kunde implementiert Innovation Veränderungen von Erster Kunde implementiert Innovation Vorteil im Wettbewerb Zweiter Kunde implementiert Innovation Dritter Kunde implementiert Innovation Zeit Fokussierung der IT Ausgaben Hier macht

Mehr

Cloud Computing bereitet sich für den breiten Einsatz im Gesundheitswesen vor.

Cloud Computing bereitet sich für den breiten Einsatz im Gesundheitswesen vor. Cloud Computing im Gesundheitswesen Cloud Computing ist derzeit das beherrschende Thema in der Informationstechnologie. Die Möglichkeit IT Ressourcen oder Applikationen aus einem Netz von Computern zu

Mehr

Die clevere Server- und Storage- Lösung mit voll integrierter Servervirtualisierung.

Die clevere Server- und Storage- Lösung mit voll integrierter Servervirtualisierung. Die clevere Server- und Storage- Lösung mit voll integrierter Servervirtualisierung. Entscheidende Vorteile. Schaffen Sie sich jetzt preiswert Ihre Virtualisierungslösung an. Und gewinnen Sie gleichzeitig

Mehr

Cloud Computing Chancen für KMU

Cloud Computing Chancen für KMU Cloud Computing Chancen für KMU Sascha A. Peters Cluster Manager IT FOR WORK 31. Oktober 2012 Cloud Computing Worüber reden alle? Fragen zum Thema Cloud Was ist Cloud Computing und wofür wird es genutzt?

Mehr

Keep your SAN simple Spiegeln stag Replizieren

Keep your SAN simple Spiegeln stag Replizieren Keep your SAN simple Spiegeln stag Replizieren best Open Systems Day Mai 2011 Unterföhring Marco Kühn best Systeme GmbH marco.kuehn@best.de OS Unterstützung für Spiegelung Host A Host B Host- based Mirror

Mehr

Konzept für eine Highperformance- und Hochverfügbarkeitslösung für. einen Anbieter von Krankenhaus Abrechnungen

Konzept für eine Highperformance- und Hochverfügbarkeitslösung für. einen Anbieter von Krankenhaus Abrechnungen Konzept für eine Highperformance- und Hochverfügbarkeitslösung für Anforderungen : einen Anbieter von Krankenhaus Abrechnungen Es soll eine Cluster Lösung umgesetzt werden, welche folgende Kriterien erfüllt:

Mehr

Azure und die Cloud. Proseminar Objektorientiertes Programmieren mit.net und C# Simon Pigat. Institut für Informatik Software & Systems Engineering

Azure und die Cloud. Proseminar Objektorientiertes Programmieren mit.net und C# Simon Pigat. Institut für Informatik Software & Systems Engineering Azure und die Cloud Proseminar Objektorientiertes Programmieren mit.net und C# Simon Pigat Institut für Informatik Software & Systems Engineering Agenda Was heißt Cloud? IaaS? PaaS? SaaS? Woraus besteht

Mehr

Tivoli Storage Manager für virtuelle Umgebungen

Tivoli Storage Manager für virtuelle Umgebungen Tivoli Storage Manager für virtuelle Umgebungen Sprecher: Jochen Pötter 1 Hinterfragen Sie den Umgang mit ihren virtuellen Maschinen Sichern Sie ihre virtuelle Umgebung? Wie schützen Sie aktuell ihre virtuelle

Mehr

Der Storage Hypervisor

Der Storage Hypervisor Der Storage Hypervisor Jens Gerlach Regional Manager West m +49 151 41434207 Jens.Gerlach@datacore.com Copyright 2013 DataCore Softw are Corp. All Rights Reserved. Copyright 2013 DataCore Softw are Corp.

Mehr

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte I N F O R M A T I O N V I R T U A L I S I E R U N G Wir schützen Ihre Unternehmenswerte Wir schützen Ihre Unternehmenswerte Ausfallsicherheit durch Virtualisierung Die heutigen Anforderungen an IT-Infrastrukturen

Mehr

Cloud Computing für die öffentliche Hand

Cloud Computing für die öffentliche Hand Hintergrundinformationen Cloud Computing für die öffentliche Hand Die IT-Verantwortlichen in allen Bereichen der öffentlichen Verwaltung Bund, Länder und Kommunen sehen sich den gleichen drei Herausforderungen

Mehr

«EFFIZIENTE UND SICHERE IT-INFRASTRUKTUREN... In&Out AG IT Consulting & Engineering info@inout.ch www.inout.ch

«EFFIZIENTE UND SICHERE IT-INFRASTRUKTUREN... In&Out AG IT Consulting & Engineering info@inout.ch www.inout.ch «EFFIZIENTE UND SICHERE IT-INFRASTRUKTUREN... In&Out AG IT Consulting & Engineering info@inout.ch www.inout.ch DATENCENTERFORUM 2014 WIE DIE ZUKÜNFTIGE ENTWICKLUNG DER IT IHREN DATA CENTER BETRIEB BEEINFLUSSEN

Mehr

Storage Flash Technologie - Optionen für Ihren Erfolg

Storage Flash Technologie - Optionen für Ihren Erfolg Storage Flash Technologie - Optionen für Ihren Erfolg Kennen sie eigentlich noch. 2 Wie maximieren Sie den Wert Ihrer IT? Optimierung des ROI von Business-Applikationen Höchstmögliche IOPS Niedrigere Latenz

Mehr

Herzlich willkommen! 05.04. Hamburg 12.04. Frankfurt / Hanau 14.04. Düsseldorf / Neuss 11.05. München

Herzlich willkommen! 05.04. Hamburg 12.04. Frankfurt / Hanau 14.04. Düsseldorf / Neuss 11.05. München Herzlich willkommen! 05.04. Hamburg 12.04. Frankfurt / Hanau 14.04. Düsseldorf / Neuss 11.05. München Die Entscheidungslevel Analyse Automatische Klassifizierung Strukturierte/ Unstrukturierte Daten ILM

Mehr

1 von 6 27.09.2010 09:08

1 von 6 27.09.2010 09:08 1 von 6 27.09.2010 09:08 XaaS-Check 2010 Die Cloud etabliert sich Datum: URL: 26.08.2010 http://www.computerwoche.de/2351205 Eine Online-Umfrage zeigt: Viele Unternehmen interessieren sich für das Cloud

Mehr

Wir weisen darauf hin, dass das Urheberrecht bei dem Referenten liegt. Der Vortrag ist nur für den Privatgebrauch und nicht für die Weitergabe an

Wir weisen darauf hin, dass das Urheberrecht bei dem Referenten liegt. Der Vortrag ist nur für den Privatgebrauch und nicht für die Weitergabe an Wir weisen darauf hin, dass das Urheberrecht bei dem Referenten liegt. Der Vortrag ist nur für den Privatgebrauch und nicht für die Weitergabe an Dritte. E-Business-Tage 2008 Möglichkeiten und Implementierung

Mehr