STORAGE. Themenheft. Informationsmanagement für Unternehmen STORAGE- LÖSUNGEN FÜR BIG DATA KONFIGURIEREN

Größe: px
Ab Seite anzeigen:

Download "STORAGE. Themenheft. Informationsmanagement für Unternehmen STORAGE- LÖSUNGEN FÜR BIG DATA KONFIGURIEREN"

Transkript

1 Informationsmanagement für Unternehmen STORAGE Themenheft STORAGE- LÖSUNGEN FÜR BIG DATA KONFIGURIEREN Data-Warehousing war gestern: bringt konventionelle Storage-Systeme an ihre Grenzen und verlangt nach neuen Konzepten. PLUS: BIG DATA ERFORDERT NEUE ANSÄTZE FÜR STORAGE ARBEITEN MIT BIG DATA: DER STORAGE- ASPEKT BIG-DATA- TECHNOLOGIEN: AUFBEWAHRUNG, PERFORMANCE, KAPAZITÄT EINFÜHRUNG IN DIE BIG-DATA- ANALYTIK WORAUF SIE BEI DER WAHL IHRER BIG-DATA- INFRASTRUKTUR ACHTEN MÜSSEN

2 editorial * rich castagna neue Ansätze Was auch immer Sie darunter verstehen: Für Anwendungen reichen konventionelle Storage-Systeme häufig nicht mehr aus. in die IT-PROFIS VERBRINGEN in diesen Tagen wahrscheinlich mehr Zeit damit, zu definieren, als die dafür nötigen Systeme aufzubauen. Doch das wird sich bald ändern egal was Sie unter diesem immer gebräuchlicheren Ausdruck verstehen. Ursprünglich bezeichnete etwas, womit es hauptsächlich die Branchen Medien, Unterhaltung und Geo-Exploration zu tun hatten: enorm große Dateien, die zwecks Bearbeitung oder Analysen an Arbeitsplatzrechner übertragen werden mussten. Doch noch bevor sich diese Definition in unserem IT-Bewusstsein einnisten konnte, wurde sie auch schon erweitert: Heute umfasst sie auch das andere Ende des Datenspektrums, also Massen an unstrukturierten kleinen Dateien aus einer Vielzahl von Quellen. Das klingt erst einmal ziemlich verwirrend. Doch Terri McClure bringt in diesem Themenheft etwas Licht in das Dunkel der Definitionen: Big Data, so schreibt er, bezeichnet jegliche Datenbestände, mit denen konventionelle IT-Systeme für das Tagesgeschäft aufgrund von Umfang oder Rechenintensität nicht mehr zurechtkommen. 2

3 in die Diese Definition ist ausgesprochen sinnvoll. Sie mag noch weiter gefasst sein als andere aktuelle Konzepte, ermöglicht aber einen pragmatischen Umgang mit dem Thema. Die Diskussion um ist derzeit stark auf die aspekte dieses Themas konzentriert. Storage-Verantwortliche könnten deshalb auf die Idee kommen, dass sie gar nichts damit zu tun haben, all die Daten zu etwas Nützlichem zu machen intelligente Informationen, mit denen Unternehmen ihr Geschäft opt imieren oder erweitern können. Tatsächlich aber spielt Storage eine entscheidende Rolle: Ohne eine solche ist es nicht möglich, aus riesigen Mengen an Rohdaten verwertbare Informationen zu gewinnen. Umgebungen sind derart umfangreich, dass schon bei der Konfiguration der nötigen Storage-Systeme wichtige Entscheidungen zu treffen sind. Letztlich werden dabei schon die Weichen für den Erfolg ihrer gesamten Bemühungen gestellt. Unter versteht man heute wie erwähnt entweder wenige riesige Dateien oder Millionen von kleinen. In beiden Szenarien ist sehr viel erforderlich, doch damit enden die Gemeinsamkeiten auch schon. Konventionelle Storage-Systeme dürften für Zwecke nicht ausreichen: Entweder sie können die Daten nicht effektiv genug zur anwendung befördern, oder sie sind für derart kapazitätsintensive Aufgaben schlicht zu teuer. Bei der Bereitstellung von Storage für ist deshalb neues Denken gefragt, vor allem wenn ältere Architekturen durch Technologien wie Hadoop oder objektbasierte Speicherung infrage gestellt werden. Früher mag größer und schneller ausgereicht haben, um neue Storage-Herausforde- rungen zu meisten. IT-Profis verbringen heutzutage wahrscheinlich mehr Zeit damit, zu definieren, als die nötigen Systeme dafür aufzubauen. Rich Castagna ist Editorial Director // Chefredakteur der Storage Media Group. 3

4 der Storage- Ob es darum geht, zu definieren, Hadoop zu verstehen oder die Folgen großer Datenbestände abzuschätzen: Storage-Profis müssen den Trend genau verstehen. VON TERRI MCCLURE in die HEUTZUTAGE SCHEINT ES fast unmöglich, dem Ausdruck zu entgehen doch eine allgemein gültige Definition, was das eigentlich ist, hat die Branche noch nicht. Die Enterprise Strategy Group (ESG) definiert als Datenbestände, die Grenzen und Größen üblicher Verarbeitungsressourcen übersteigen, sodass ein nicht-konventioneller Ansatz erforderlich ist. Gemeint sind also Datensammlungen, mit denen konventionelle IT-Systeme für das Tagesgeschäft aufgrund von Umfang oder Rechenintensität nicht mehr zurechtkommen. Dabei stoßen die alten Systeme an unterschiedlichsten Fronten an ihre Grenzen: Das Transaktionsvolumen kann so hoch sein, dass konventionelle Storage-Lösungen zum Engpass werden und nicht mehr schnell genug arbeiten. Es fehlt ihnen an Rechenleistung für die hohe Zahl an Lese- und Schreibvorgängen. Manchmal haben sie auch einfach nicht genügend Laufwerke dafür. Viele Anwender behelfen sich bei drohenden Engpässen mit einem Trick namens Short-Stroking : Sie befüllen ihre Festplatten nur teilweise, sodass pro Gigabyte mehr Laufwerke für In- und Outputs zur Ver- 4

5 fügung stehen. Manchmal installieren Anwender auch mehrere Storage-Systeme nebeneinander und behandeln einen Teil ihrer als Reserve. Beides ist natürlich eine teure Lösung, weil man viele Festplatten kaufen muss, die teilweise ungenutzt bleiben. Die Größe der Daten (einzelne Einträge, Dateien oder Objekte) kann dazu führen, dass konventionelle Systeme nicht genügend Durchsatz haben, um hinreichend schnell Daten zur Verfügung zu stellen ihre Bandbreite reicht schlicht nicht mehr aus. Auch in solchen Fällen greifen Organisationen zu Short-Stroking und mehr Festplatten und auch hier nehmen sie damit geringe Auslastung und hohe Kosten in Kauf. Das Gesamtvolumen der Inhalte ist so hoch, dass es die sgrenze konventioneller Storage-Systeme überschreitet ein reines Mengenproblem. Dies führt zu Storage-Wucherung in Form von Dutzenden oder Hunderten von Speicher-Silos mit ebenso vielen Managementoberflächen. Die Folge sind erneut geringe Auslastung und dazu überhöhter Platz-, Strom- und Kühlungsbedarf. in die Wenn diese drei Faktoren zusammenkommen, wird die Lage fast schon bedrohlich. Und tatsächlich ist es durchaus realistisch, dass manchmal riesige Mengen an Lese- und Scheibvorgängen mit massenhaft Daten in enormen Dateigrößen vonnöten sind. HILFREICHE STORAGE-ARCHITEKTUREN Erfreulicherweise haben sich Speicherarchitekturen insofern weiterentwickelt, als sie nun besser mit dem steigenden Datenvolumen von umgehen können. Bei ihren Eigenschaften gibt es Unterschiede im Detail, aber auch Ähnlichkeiten. Am I/O-intensiven Ende des Spektrums mit hohen Transaktionsvolumina sieht die ESG gute Chancen für Architekturen, die sich durch zusätzliche Laufwerke erweitern lassen. Dies ist der traditionelle An- 5

6 in die satz, für den Systeme wie EMC VMAX, Hitachi Data Systems Virtual Storage Platform (VSP) oder IBM DS8000 gut geeignet sind. An der Front der großen Dateien haben die fortschrittlichsten Branchen, die es seit Jahren mit zu tun haben, schon früh mit Storage-Systemen gearbeitet, die auf genügend Bandbreite für große Dateien ausgelegt sind. Hier sind unter anderem Systeme von DataDirect Networks, Ibrix X9000 von Hewlett-Packard, Isilon (inzwischen EMC Isilon) und Panasas zu nennen. Traditionelle Hochskalierung (Scale-Up) bedeutet, dass man irgendwann an eine Grenze stößt. Scale-Out oder horizontale Skalierung dagegen bietet deutlich mehr Flexibilität zur Erhöhung von oder Rechenleistung. Je stärker Umfänge zu einem verbreiteten Phänomen werden, desto mehr Verbreitung finden derartige Systeme. Häufig gibt es dabei eine Mischung aus I/O- und durchsatzintensiven Anforderungen, also sind sowohl Scale-Up als auch Scale-Out erforderlich. An der letzten Front schließlich, beim schieren Datenvolumen, ist ein Trend zu objektbasierten Scale-Out-Speichersystemen zu beobachten. Diese machen es leichter, Milliarden von Datenobjekten innerhalb eines einheitlichen, einfach zu verwaltenden Systems aufzubewahren. Der Vorteil solcher Systeme liegt darin, dass sie die Definition von robusten Metadaten für leichteres Content-Management und Tracking erlauben. Zudem sind sie darauf ausgelegt, mit einfachen, preiswerten Speicherlaufwerken zu arbeiten (ein gutes Beispiel dafür ist die DX6000-Storage-Platform-Serie von Dell). WIE SIEHT ES MIT HADOOP AUS? Kein Artikel über ist vollständig ohne eine Beschäftigung mit Hadoop. Mit dieser Open-Source-Technologie lassen sich Analysedurchläufe ohne exorbitante Kosten beschleunigen (von Wochen auf Stunden oder Minuten). Viele Unternehmen zeigen Interesse daran, zumal für Hadoop oft Standardserver mit günstiger direkt angeschlossener Speicherung (Direct Attached Storage DAS) ausreichen. 6

7 in die Hadoop wird eingesetzt zur Verarbeitung großer Mengen an Daten. Es besteht aus zwei Komponenten: MapReduce und Hadoop Distributed File System (HDFS). (Sehr) einfach ausgedrückt, kümmert sich MapReduce um das Management von Rechenjobs, und das HDFS ist dafür zuständig, wo im Cluster die Daten gespeichert werden. Wenn eine Berechnung gestartet wird, teilt MapReduce sie in Teilaufgaben auf, die parallel erledigt werden können. Im Grunde fragt es beim HDFS an, wo die Daten für jede Teilaufgabe zu finden sind, und übergibt diese Teilaufgabe dann an den Rechenknoten, auf dem die Daten liegen. Auf gewisse Weise werden Berechnung und Daten also zusammengebracht. Die Teilergebnisse werden dann zurück an den MapReduce-Master gemeldet, der sie konsolidiert und das Endergebnis auswirft. Zum Vergleich: Ein konventionelles System bräuchte dafür einen großen und teuren Server mit hoher Rechenleistung, verbunden mit einem großen und teuren Speicher-Array. Es würde alle erforderlichen Daten einlesen, die Analyse durchführen und die Ergebnisse weitgehend seriell ausgeben. Angesichts des hohen Datenvolumens würde es dafür länger brauchen als das Hadoop-basierte MapReduce. Die Unterschiede lassen sich mit einer einfachen Analogie veranschaulichen: Angenommen, 20 Menschen befinden sich in einem Lebensmittelladen und müssen alle dieselbe Schlange an der Kasse durchlaufen. Wenn jeder von ihnen für 200 Dollar einkauft und das Scannen und Zusammenrechnen jeweils zwei Minuten dauert, braucht der einzelne Super-Kassierer zum Einnehmen von 4000 Dollar 40 Minuten. Mit Hadoop dagegen sähe es im Laden so aus: Zehn Kassen werden mit billigen Teilzeitkräften besetzt, die für jede Einzeltransaktion 50 Prozent mehr Zeit (also drei Minuten) brauchen. Um dieselben 20 Kunden zu bedienen, brauchen sie zusammen nur sechs Minuten, der Umsatz liegt aber trotzdem bei 4000 Dollar. Aus geschäftlicher Sicht ist es überaus lohnend, eine Aufgabe in 6 statt in 40 Minuten erledigt zu bekommen. In den gewonnenen 34 Minuten lässt sich dann noch mehr erledigen wie viele weitere Erkenntnisse könnten Sie in dieser Zeit gewinnen und wie viel schneller könnten Sie auf Markttrends reagieren? In dieselbe Situation brin- 7

8 gen Sie Ihre Kollegen vom Management, wenn diese auf die Ergebnisse von Analyseanfragen nicht mehr so lange warten müssen. Hadoop ist nicht perfekt. Cluster-Dateisysteme sind komplex. Ein Großteil dieser Komplexität bleibt dem HDFS-Administrator zwar verborgen, trotzdem kann es einige Zeit kosten, einen Hadoop-Cluster effizient zum Laufen zu bringen. Hinzu kommt, dass es in der aktuellen Version von Apache Hadoop einen Single Point of Failure im HDFS gibt: die Daten-Map (genannt NameNode), in der als Metadaten festgehalten ist, wo all die Daten liegen. Die Behebung dieser Schwäche steht auf der Prioritätenliste für die nächste Hauptversion ganz oben. Einstweilen aber bleibt es dem Administrator überlassen, wie gut die Daten geschützt werden: Die Einstellung zur Daten- Replikation bestimmt darüber, wie viele Mal Daten im Cluster kopiert werden. Die Voreinstellung ist drei, sodass dreimal so viel vorgehalten werden muss, wie wirklich genutzt werden kann. Und das betrifft nur den lokalen Cluster selbst Backups und externes Disaster Recovery (DR) werden von den aktuellen Hadoop-Versionen nicht abgedeckt. Zudem gibt es keine große Auswahl an Fachkräften auf dem Markt, die sich mit Hadoop auskennen. In Unternehmen wie Cloudera, EMC oder MapR wachsen zwar zunehmend Experten heran, doch das dauert seine Zeit. Dieser letzte Punkt sollte nicht auf die leichte Schulter genommen werden: Aktuelle Studien zeigen, dass bei Projekten mit freien Mitarbeitern oder Beratern pro Entwickler und Jahr mit Kosten von Dollar zu rechnen ist. in die GROSSE DATEN, GRÖSSERE WAHRHEITEN Die Liste von Schwächen bei Hadoop, zusammen mit den erhofften Marktchancen im Bereich kommerzieller, ist für große Storage-Anbieter wie EMC, IBM oder NetApp Anlass genug, sich ebenfalls mit zu beschäftigen. Jeder dieser drei hat bereits Storage-Systeme für Hadoop-Umgebungen herausgebracht (oder wird es garantiert noch tun), die mehr Möglichkeiten für Management, Skalierung und Datensicherung bieten als Hadoop selbst. Die meisten bilden einen Ersatz für die HDFS-Speicherschicht mit offenen Schnittstellen (wie NFS und CFS), bei anderen handelt es sich 8

9 in die um eigene Versionen des MapReduce-Frameworks mit verbesserter Performance. Ebenfalls im Angebot sind Funktionen, die Lücken des Open-Source-Systems HDFS schließen, etwa die Fähigkeit, Daten über die Standard-Schnittstellen NFS und CFS mit anderen Anwendungen auszutauschen, oder deutlich verbesserte Datenschutz- und DR-Funktionen. NetApp geht dabei einen radikal anderen Weg als die meisten anderen Anbieter. Das Unternehmen setzt voll auf den offenen HDFS-Standard und die Arbeit mit Datenknoten mit DAS. Statt eines eigenen Dateisystems mit einem Hadoop-Wrapper verwendet Net- App eine Art Turbo für die DAS mit einem via SAS angebundenen einfachen Haufen Festplatten (just a bunch of discs JBOD) auf Grundlage der Low-End-Plattform Engenio. Für die NameNodes kommt eine über NFS angebundene FAS-Box zum Einsatz, die für den Fall eines NameNodes-Ausfalls eine schnelle Recovery erlaubt. Insgesamt stellt dies einen hybriden Das Beste aus beiden Welten- Ansatz dar. Ob der Markt einen Aufschlag für die höhere Verfügbarkeit und das größere Potenzial zur Nutzung von Anwendungen zu zahlen bereit ist oder nicht, muss sich erst noch zeigen die Entwicklung steht noch ziemlich am Anfang. ist Realität, und nicht alles in diesem Bereich lässt sich unter denselben Hut bringen unterschiedliche Arten von verlangen nach unterschiedlichen Storage-Ansätzen. Selbst wenn Sie ein Problem haben und an die genannten Grenzen stoßen, die Ihnen zeigen, dass Sie etwas anders machen sollten: Wenn Sie mit Ihren Lösungsanbietern darüber reden, sollten Sie sich gar nicht erst mit dem Schlagwort aufhalten. Sprechen Sie stattdessen über Ihr Geschäftsproblem und die Anwendungsfälle. Auf diese Weise können Sie Ihre konkreten Anforderungen herausarbeiten, und aus diesen wird sich auch der passende Storage-Ansatz ergeben. n Terri McClure ist Leitende Storage-Analystin bei der Enterprise Strategy Group in Milford im US-Bundesstaat Massachusetts. 9

10 Werkzeuge und Technologien für Archive Die Anforderungen an die Aufbewahrung von Daten bei sind hoch trotzdem muss auch die Echtzeit-Performance stimmen. VON ERIC SLACK in die DER AUSDRUCK BIG DATA wird verwendet (wenn nicht überstrapaziert) zur Beschreibung von Rechenumgebungen mit extremen Anforderungen, die von konventionellen IT-en nur teilweise zu erfüllen sind. Aus diesem Grund sind alternative Lösungen gefragt. In diesem Artikel beschäftigen wir uns mit den Herausforderungen, die für bestehende Storage-en bedeutet, und mit Technologien, die Vorteile für Value-Added Reseller (VARs) bieten. Eine der Definitionen für ergibt sich aus dem Bereich und bezieht sich auf große Pools an Dateien, auf die nach Belieben zugegriffen werden soll. Manchmal sind auch Datenbanken für hochperformante gemeint, oft in Echtzeit, zum Beispiel bei Finanztransaktionen, Internetanwendungen, wissenschaftlichen Analysen, Ereignisprotokollierung etc. Bei diesen Anwendungsfällen geht es also typischerweise um sehr große Zahlen von kleinen Datenobjekten, die für Highspeed-Analysen zur Verfügung gestellt werden müssen. Es gibt noch eine Definition, von uns als Archiv be- 10

11 in die zeichnet. Diese Referenzarchive müssen sehr große Mengen an großen Dateien zugänglich machen und unterstützen damit meist sequenzielle Verarbeitungsabläufe. Dies ist zum Beispiel bei der Postproduktion von Filmen der Fall. Für derartige Daten gibt es hohe Anforderungen an die denn viele der entstehenden Dateien sind ein zum Verkauf vorgesehenes Endprodukt oder regulatorischen Vorgaben unterworfen und müssen mehrere Jahre lang vorgehalten werden. Auch eine Performance-Komponente ist für diese Archivanwendungsfälle von Bedeutung. Illustrieren lässt sich das anhand von Todesfällen von Prominenten: Als Whitney Houston oder Michael Jackson starben, mussten für eine zeitnahe Berichterstattung große Mengen an Videodateien rasch aus viele Jahre umfassenden Archiven gezogen werden. Bei wiederum besteht die Herausforderung darin, genügend IOPS zu ermöglichen, um die Echtzeit-Analysemaschinen schnell genug mit Daten zu versorgen. In beiden Fällen kann die Konsistenz der Im Prinzip übersteigt das dra matische Wachstum der Datenbestände die Leistungsfähigkeit konventioneller en. Performance ein entscheidender Faktor sein bei konventionellen Speicherinfrastrukturen kann es mit wachsendem Umfang schwierig werden, ihre Performance vorauszusagen. an sich ist kein definierendes Merkmal für Anwendungsfälle und doch einer der Gründe dafür, warum es überhaupt eine Diskussion gibt. Im Prinzip übersteigt das dramatische Wachstum der Datenbestände die Leistungsfähigkeit konventioneller en. Zugleich machen die schieren Mengen die Speicherung von kostspielig. Die Skalierung von Speicherinfrastrukturen, oft bis in den Bereich mehrerer Petabytes hinein, muss deshalb bezahlbar gestaltet werden. Als Nächstes werfen wir einen Blick auf einige Technologien und -Produkte, die diese Anforderungen erfüllen sollen. 11

12 in die RAINSTOR Wenn sich die Menge an gespeicherten Daten verringern lässt, verlieren alle anderen Probleme an Brisanz in einem Umfeld gilt dies wahrscheinlich mehr als überall sonst. Komprimierung und Deduplizierung sind zwei Beispiele für diese Strategie; allerdings kann ihre Anwendung bei Datenbanken komplizierter sein als bei einfachen Dateien. Ein Unternehmen, das dieses Problem in den Griff bekommen hat, ist RainStor. Es hat eine gleichnamige Technologie entwickelt, die Datenreduktion in einer strukturierten Umgebung ermöglicht. Rain- Stor erlaubt die Deduplizierung und Speicherung von großen Datenbanksektionen mit einer Verringerung des Volumens von 40 zu 1; Anwender können die komprimierte Datenbank über Standard-SQL- Anfragen durchsuchen, ohne dass eine Rehydrierung der Daten nötig ist. Vor Kurzem hat das Unternehmen auch eine Version seines Produkts für Hadoop-Umgebungen herausgebracht. Sie läuft nativ im Hadoop-Cluster auf Dateien des Hadoop Distributed File System (HDFS) und bietet für SQL-Anfragen oder MapReduce-Analysen ähnliche Werte bei Datenreduktion und Managementeffizienz. GRIDIRON SYSTEMS Für eine bessere Datenbank-Performance kommt eine blockbasierte Cache-Appliance namens TurboCharger von GridIron Systems infrage. Mithilfe von Flash und DRAM in High-Performance-Umgebungen wie Oracle Real Application Clusters (RAC) ermöglicht sie eine Beschleunigung bis um Faktoren von bis zu 10. Anders als traditionelle Caching-Methoden, die auf Metadaten des Dateisystems basieren, schafft GridIron eine auf Heuristik basierende Map von Milliarden Datenblöcken auf dem Backend-Speicher. Dadurch kann TurboCharger prädiktive Analysen an den Daten vornehmen und Blöcke in den Cache laden, bevor sie gebraucht werden. Als echter Cache kann TurboCharger die Belastung von Storage- Systemen um bis zu 90 Prozent reduzieren und die Schreib-Performance um das bis zu Vierfache erhöhen. Das System wird im Netzwerk installiert und ist transparent für Anwendungen am Frontend 12

13 und Speichersysteme am Backend. Es kommt ohne Änderungen an Speichermedien aus und lässt sich bei steigenden Bandbreite-Anforderungen durch das Hinzufügen von zusätzlichen Appliances in die Breite skalieren. in die QUANTUM Beim Archivieren von kann die Herausforderung auch im Management der Dateisystemumgebung und in seiner Skalierung für den Umgang mit einer sehr großen Zahl von Dateien liegen. StorNext von Quantum ist ein heterogenes SAN-Dateisystem, das schnellen geteilten Zugriff über Linux-, Macintosh-, Unix- und Windows-Clientserver in einem SAN ermöglicht. Zusätzlich kann ein SAN-Gatewayserver hochperformante Zugriffsmöglichkeiten für LAN-Clients schaffen. Ein weiterer Teil von StorNext ist der Storage Manager, eine Policy-basierte Archivierungsengine, die Dateien auf unterschiedliche Stufen von Plattenspeichern und, soweit vorhanden, Bandspeicher verteilt. StorNext unterstützt zudem die asynchrone Replizierung von Verzeichnissen zwischen SAN-basierten Clients für den Schutz von Daten sowie eine integrierte Deduplizierung zur Verringerung von Speicher- und Bandbreitenbedarf. CHANCEN BEI BIG DATA Allgemein gesagt, kommen bestehende Storage-en mit den Anforderungen hinsichtlich Performance (IOPS und Streaming), bezahlbarer und Flexibilität nicht zurecht; dies gilt für ebenso wie für Archivierung. Angesichts der Breite dieses Problems werden die meisten Kunden Technologien von mehreren Anbietern benötigen. Gefragt sind deshalb VARs und Systemintegratoren, die ein breites Spektrum an Technologien vertreten und sie zu den effektivsten Lösungen integrieren. Aus diesem Grund bietet einige große Chancen für VARs. n Eric Slack ist Leitender Analyst bei Storage Switzerland. 13

14 verstehen Für Storage-Profis gibt es vier Bereiche, auf die sie sich bei konzentrieren sollten. VON JOHN WEBSTER in die DER MODETREND CLOUD-COMPUTING verliert langsam an Schwung, doch IT-Anbieter haben schon den nächsten gefunden, und der ist noch in voller Fahrt:. Wie bei früheren Hype-Zyklen geht damit einige Verwirrung bei den Anwendern einher, denn viele Anbieter haben ihre ganz eigene Definition dessen, was damit eigentlich gemeint ist. Die stärkste Verwirrung ergibt sich aus der mangelnden Differenzierung zwischen Storage und. Der Begriff stammt ursprünglich aus der Open-Source-Community, in der prozesse entstanden, die schneller und besser skalierbar sein sollten als mit traditionellem Data-Warehousing. Außerdem ging es darum, aus den riesigen Mengen an unstrukturierten Daten, die Websurfer jeden Tag hinterlassen, geschäftlich wertvolle Erkenntnisse zu gewinnen. Storage hängt damit zusammen. Auch hier geht es um die riesigen Mengen an unstrukturierten Daten, die in Unternehmen zu immer größeren Beständen führen. Die hier eingesetzten Technologien allerdings, wie Scale-Out-NAS und objektbasierte Speicherung, gibt es schon seit Jahren, weshalb sie relativ gut verstanden werden. Auf einer sehr einfachen Ebene ist Speicherung nichts 14

15 weiter als Speicherung von enormen Mengen an unstrukturierten Daten aus Anwendungen. Gebraucht wird sie etwa beim Streaming von hochaufgelösten Videos, bei Öl- und Gasexploration oder in der Genforschung bei den üblichen Verdächtigen also. Ein Marketingmanager bei einem großen Storage-Anbieter, der in diesem Bereich bislang weder eine offizielle Position noch Produkte hat, erzählte mir, dass sein Unternehmen darüber nachdenkt, seine künftigen Angebote als Huge Data zu vermarkten. wiederum ist ein Gebiet, das sich durch schnell wachsende Vielfalt auszeichnet. Aus diesem Grund ist es wahrscheinlich gar nicht sinnvoll, sich hier an einer Definition zu versuchen. Nützlich dagegen ist es, die Merkmale zu identifizieren, die alle heute zu gezählten Technologien gleichermaßen auszeichnen. Dies sind unter anderem: in die die Wahrnehmung, dass konventionelle Data-Warehousing- Prozesse zu langsam und zu schwierig zu skalieren sind; die Fähigkeit, Daten aus unterschiedlichen Quellen zu konsolidieren, sowohl strukturierte als auch unstrukturierte; die Erkenntnis, dass es für die Gewinnung von Wert aus Datenquellen wie mobilen Geräten, RFID, dem Web und einer wachsenden Zahl von automatisierten Sensortechnologien entscheidend darauf ankommt, wie schnell die nötigen Informationen vorliegen. Zusätzlich gibt es mindestens vier bedeutende Entwicklungsstränge, die dabei helfen, zu definieren. Dabei handelt es sich um MapReduce, skalierbare Datenbanken, Stream- Verarbeitung in Echtzeit und Appliances. MAPREDUCE Ein guter Ausgangspunkt zur Beschäftigung mit dem Segment Map- Reduce ist Apache Hadoop. Das Konzept dafür stammt aus einem 15

16 in die Paper, das 2004 bei Google entstand. Es beschrieb einen Prozess zur Parallelisierung der Verarbeitung von Webbasierten Daten, genannt MapReduce. Wenig später entstand als Open-Source-Implementation dieses Prozesses Apache Hadoop. Die Community dazu wächst rapide und produziert reihenweise Add-ons, die seinen Einsatz in Rechenzentren von Unternehmen erleichtern. Nutzer von Apache Hadoop bauen üblicherweise eigene parallelisierte Rechen-Cluster aus Standardservern, jeder davon mit eigenem Storage in Form eines kleinen Disk-Arrays oder in letzter Zeit, zwecks besserer zunehmend auch mit Solid-State- Speichern (SSDs). Hier ist oft von shared-nothing -Architekturen die Rede Storage-Area Networks (SAN) oder Network-Attached Storage (NAS) sind zwar skalierbar und robust, gelten aber hinsichtlich der für diese Cluster nötigen I/O-Performance als nicht leistungsfähiger als gewöhnliche Data-Warehouses. Aus diesem Grund ist die Speicherung bei Hadoop als Direct-Attached Storage (DAS) ausgelegt. Allerdings finden als sekundäre Speicher zunehmend auch SAN und NAS Verbreitung. Für potenzielle Hadoop-Nutzer gibt es eine wachsende Zahl an Auswahlmöglichkeiten von reinem Open Source bis zu hochgradig kommerzialisierten Versionen. Auf der Projekt-Website für Hadoop stehen Apache Hadoop und dazugehörige Werkzeuge kostenlos zur Verfügung. Cloudera Inc. bietet eine kommerzielle Version mit firmeneigenen Erweiterungen und Support an. Andere Open-Source- Varianten, etwa die Facebook-Distribution, sind von Cloudera ebenfalls erhältlich. Zu den kommerziellen Versionen zählt auch die von MapR Technologies, die inzwischen in Hadoop-Appliances von EMC Corp. zum Einsatz kommt. SKALIERBARE DATENBANKEN Hadoop zieht zwar die meisten Schlagzeilen auf sich, weil es in der Lage ist, unstrukturierte Daten in einer Data-Warehouse-artigen Umgebung zu verarbeiten. Doch es gibt noch viele weitere interessante Entwicklungen im Bereich. Auch strukturierte Daten bekommen viel Aufmerksamkeit. NoSQL 16

17 etwa ist eine nicht-relationale, verteilte und horizontal skalierbare Sammlung von Open-Source-Datenbankstrukturen für Websites mit hohem Datenaufkommen und Streaming-Medien. Um sie herum ist eine lebhafte und schnell wachsende Community entstanden. Zu ihren dokumentorientierten Implementationen zählen MongoDB (eine Anspielung auf humongous gigantisch) und Terrastore. Eine weitere orientierte Datenbank aus der Open-Source- Community ist SciDB, entwickelt für Anwendungsfälle wie Umweltbeobachtung, Radioastronomie oder Seismologie. Die Anbieter von traditionellen Data-Warehouse-Lösungen sehen diesem Treiben nicht etwa tatenlos zu. Orcale Corp. arbeitet Mit Hilfe von StreamSQL ist es seit 2003 möglich, Echtzeit-Analysen von mehreren Datenströmen gleichzeitig durchzuführen. an next generation -Plattformen, bei denen für Informationsgenerierung in Echtzeit seine plattform und In-Memory-Computing zum Einsatz kommen. Teradata Corp. hat vor Kurzem Aster Data Systems Inc. übernommen, um die SQL-MapReduce-Implementation dieses Unternehmens in sein Produktportfolio aufnehmen zu können. in die STREAM-VERARBEITUNG IN ECHTZEIT Mithilfe von StreamSQL ist es seit 2003 möglich, Echtzeit-Analysen an mehreren Datenströmen gleichzeitig vorzunehmen. Bislang konnte StreamSQL damit erst ein paar kleinere Nischenmärkte bei Finanzdienstleistungen, Überwachung und Monitoring von Telecom- Netzen erschließen. Angesichts des neuerdings wuchernden Interesses an allem, was mit zu tun hat, dürfte StreamSQL bald aber mehr Aufmerksamkeit und Marktchancen bekommen. StreamSQL ist ein Nebenprodukt eines Zweigs der Informatik- Forschung namens Complex Event Processing (CEP), einer Techno- 17

18 logie für die Verarbeitung von Daten aus der physischen Welt mit geringer Latenz. Produkte gibt es hier sowohl von IBM InfoSphere Streams als auch von StreamBase Systems Inc. in die BIG-DATA-APPLIANCES Mit dem Vordringen von in die Rechenzentren gewöhnlicher Unternehmen ergibt sich für Anbieter zudem die Chance, Appliances zusammenzustellen. In diesen werden Server, Netzwerk und Storage so in ein gemeinsames Gehäuse integriert, dass die auf ihnen installierte software schnellere Ergebnisse liefert. Zielgruppe für diese Appliances sind Unternehmenskunden, die vor allem an einfacher Implementation interessiert sind und deren Anforderungen gut dazu passen. Zu den Anbietern in diesem Bereich zählen EMC mit seinen Appliances auf Grundlage der Datenbank-Engine Greenplum, Netezza von IBM, die vor Kurzem angekündigte kommerzielle Hadoop-Version von MapR sowie Oracle und Teradata mit vergleichbaren, vorintegrierten Systemen. BIG-DATA-STORAGE FÜR BIG-DATA-ANALYTIK Wer in der Praxis mit prozessen zu tun hat, steht Shared Storage meist eher feindlich gegenüber. Bevorzugt wird DAS in seinen unterschiedlichen Formen von SSDs bis zu SATA-Festplatten mit hoher, die an parallelen Rechenknoten hängen. Shared-Storage-Architekturen wie SAN und NAS werden meist als zu langsam, zu komplex und vor allem zu teuer wahrgenommen. Diese Eigenschaften sind schlecht vereinbar mit systemen, die hinsichtlich standardisierter und Kosten einiges zu bieten haben. Eines der definierenden Merkmale von ist Informationsgenerierung in Echtzeit oder Beinahe-Echtzeit. Daten im Arbeitsspeicher sind deshalb gut; Daten am anderen Ende einer SAN-Anbindung über Fibre Channel sind nicht gut. Vielleicht am schwersten aber wiegt, dass die Kosten für ein SAN in einer für 18

19 anwendungen nötigen Größenordnung prohibitiv hoch sein können. Trotzdem gibt es auch Argumente, die für Shared Storage bei sprechen. Dabei gibt es als gelungenes Beispiel etwa die Integration der ParAccel Analytic Database (PADB) mit SAN- Storage von NetApp. Entwickler von Storage-Technologien gehen mittlerweile dazu über, Storage nicht mehr als physische Einrichtung zu verstehen, sondern eher als virtuelles und abstraktes Gebilde. Als Folge davon könnten und sollten Praktiker Shared-Storage durchaus als ein Gebiet betrachten, das ihnen gute Dienste leisten kann. Dazu zählen: in die 1. Schutz von Daten und Systemverfügbarkeit: Storagebasierte Kopierfunktionen, die kein Ruhen der Datenbank erfordern, ermöglichen neustartfähige Kopien nach Systemabstürzen oder Fällen von Datenkorruption. 2. Geringerer Zeitaufwand für den Einsatz neuer Anwen- dungen und automatisierte Prozesse: Wenn neue Anwendungen mithilfe von wiederverwendbaren Datenkopien vorbereitet werden können, lassen sie sich schneller zum Laufen bringen. Dies steigert die geschäftliche Agilität. 3. Change-Management: Shared-Storage hat das Potenzial, die Auswirkungen erforderlicher Änderungen und Upgrades auf die Live-Produktionsumgebung zu verringern, weil es die always on -Funktionalität unterstützt. 4. Lebenszyklusmanagement: Systemevolution und der Austausch überholter Anwendungen werden erleichtert, wenn Shared-Storage als Database of Record dient. 5. Kostenersparnis: Die Verwendung von Shared-Storage als Ergänzung zu DAS in einer shared nothing -Architektur verringert die Kosten und Komplexität von Prozessorknoten. 19

20 in die BIG DATA IST EIN BIG DEAL Konventionelles Data-Warehousing ist eine große, aber relativ langsame Quelle von Informationen für die Geschäftsanalytik. Es arbeitet mit begrenzten Datenressourcen und ist angewiesen auf re-iterative Extract-, Transform- und Load-Prozesse (ETL). Heute jedoch wollen Anwender schnellen Zugang zu Informationen, die auf der ständigen Auswertung multipler Datenquellen auf verwertbare Schätze beruhen. Bis zu einem gewissen Grad ist definiert durch die Notwendigkeit, große Datensätze aus unterschiedlichen Quellen zu durchforsten und Informationen in Echtzeit oder Beinahe-Echtzeit zu generieren. bietet eine große Gelegenheit. Heute beschäftigen sich IT-Organisationen mit den oben vorgestellten Technologien, um webbasierte Datenquellen auszuwerten oder um vom Boom bei sozialen Netzwerken zu profitieren. Jedoch bahnt sich bereits eine noch größere Chance an: das Internet der Dinge als neue Datenquelle. Cisco Systems Inc. schätzt, dass es derzeit etwa 35 Milliarden elektronische Geräte gibt, die sich per Kabel oder drahtlos ans Internet anschließen lassen selbst Autohersteller sehen für ihre Fahrzeuge mittlerweile eine Netzanbindung vor. Vernetzte Autos werden zunehmend allgegenwärtig und Millionen von flüchtigen Datenströmen generieren. Bei der Nutzung von vielfältigen Datenquellen wie dem Internet der Dinge werden Technologien gefragt sein, die über traditionelles Data-Warehousing weit hinausgehen. Die eingesetzten Prozesse werden ähnlich funktionieren müssen wie das menschliche Gehirn. Es nimmt riesige Ströme an sensorischen Daten auf und bildet die nötigen Korrelationen, die uns wissen lassen, wo wir sind, was wir tun und letztlich, was wir denken alles in Echtzeit. Genau diese Art der Datenverarbeitung ist es, die auch in der erreicht werden soll. n John Webster trägt als Leitender Partner bei Evaluator Group Inc. zur Forschung des Unternehmens an Datenspeicherung in den Bereichen Hardware, Software und Service-Management bei. 20

Software Defined Storage

Software Defined Storage Software Defined Storage - Wenn Speicher zum Service wird - Copyright 2015 DataCore Software Corp. All Rights Reserved. Copyright 2015 DataCore Software Corp. All Rights Reserved. Über uns... Über 25.000

Mehr

4 Planung von Anwendungsund

4 Planung von Anwendungsund Einführung 4 Planung von Anwendungsund Datenbereitstellung Prüfungsanforderungen von Microsoft: Planning Application and Data Provisioning o Provision applications o Provision data Lernziele: Anwendungen

Mehr

Copyright 2015 DataCore Software Corp. All Rights Reserved. 1

Copyright 2015 DataCore Software Corp. All Rights Reserved. 1 Copyright 2015 DataCore Software Corp. All Rights Reserved. 1 Software Defined Storage - wenn Storage zum Service wird - Jens Gerlach Regional Manager West Copyright 2015 DataCore Software Corp. All Rights

Mehr

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen 01000111101001110111001100110110011001 Volumen 10 x Steigerung des Datenvolumens alle fünf Jahre Big Data Entstehung

Mehr

Software Defined Storage in der Praxis

Software Defined Storage in der Praxis Software Defined Storage in der Praxis Jens Gerlach Regional Manager West 1 Der Speichermarkt im Umbruch 1985 2000 Heute Herausforderungen Serverspeicher Serverspeicher Serverspeicher Hyper-konvergente

Mehr

EMC. Data Lake Foundation

EMC. Data Lake Foundation EMC Data Lake Foundation 180 Wachstum unstrukturierter Daten 75% 78% 80% 71 EB 106 EB 133 EB Weltweit gelieferte Gesamtkapazität Unstrukturierte Daten Quelle März 2014, IDC Structured vs. Unstructured

Mehr

Die Cloud, die für Ihr Unternehmen geschaffen wurde.

Die Cloud, die für Ihr Unternehmen geschaffen wurde. Die Cloud, die für Ihr Unternehmen geschaffen wurde. Das ist die Microsoft Cloud. Jedes Unternehmen ist einzigartig. Ganz gleich, ob im Gesundheitssektor oder im Einzelhandel, in der Fertigung oder im

Mehr

Test zur Bereitschaft für die Cloud

Test zur Bereitschaft für die Cloud Bericht zum EMC Test zur Bereitschaft für die Cloud Test zur Bereitschaft für die Cloud EMC VERTRAULICH NUR ZUR INTERNEN VERWENDUNG Testen Sie, ob Sie bereit sind für die Cloud Vielen Dank, dass Sie sich

Mehr

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zettabyte CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zetabyte: analytische Datenbanken Die Datenflut. Analytische Datenbanken: Was ist neu? Analytische Datenbanken:

Mehr

dsmisi Storage Lars Henningsen General Storage

dsmisi Storage Lars Henningsen General Storage dsmisi Storage dsmisi MAGS Lars Henningsen General Storage dsmisi Storage Netzwerk Zugang C Zugang B Zugang A Scale-Out File System dsmisi Storage Netzwerk Zugang C Zugang B Zugang A benötigt NFS oder

Mehr

Big Data Mythen und Fakten

Big Data Mythen und Fakten Big Data Mythen und Fakten Mario Meir-Huber Research Analyst, IDC Copyright IDC. Reproduction is forbidden unless authorized. All rights reserved. About me Research Analyst @ IDC Author verschiedener IT-Fachbücher

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

WISSENSWERTES ÜBER WINDOWS SCALE-OUT FILE SERVER

WISSENSWERTES ÜBER WINDOWS SCALE-OUT FILE SERVER WISSENSWERTES ÜBER WINDOWS SCALE-OUT FILE SERVER AGENDA 01 File Server Lösungen mit Windows Server 2012 R2 02 Scale-out File Server 03 SMB 3.0 04 Neue File Server Features mit Windows Server 2016 05 Storage

Mehr

White Paper: Der Leitfaden zur Erweiterung Ihres ERP-Systems ERP ersetzen oder in die Cloud erweitern? www.eazystock.de.

White Paper: Der Leitfaden zur Erweiterung Ihres ERP-Systems ERP ersetzen oder in die Cloud erweitern? www.eazystock.de. White Paper: Der Leitfaden zur Erweiterung Ihres ERP-Systems ERP ersetzen oder in die Cloud erweitern? 2014 EazyStock Das Aktuelle ERP-Dilemma Hersteller und Distributoren sind kontinuierlich auf der Suche

Mehr

Big Data Herausforderungen für Rechenzentren

Big Data Herausforderungen für Rechenzentren FINANCIAL INSTITUTIONS ENERGY INFRASTRUCTURE, MINING AND COMMODITIES TRANSPORT TECHNOLOGY AND INNOVATION PHARMACEUTICALS AND LIFE SCIENCES Big Data Herausforderungen für Rechenzentren RA Dr. Flemming Moos

Mehr

Oracle Automatic Storage Management (ASM) Best Practices

Oracle Automatic Storage Management (ASM) Best Practices Oracle Automatic Storage Management (ASM) Best Practices Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 Agenda ASM Funktionalität und Architektur Storage Management

Mehr

Software oder Appliance basierende Deduplikation Was ist die richtige Wahl? Storagetechnology 2010

Software oder Appliance basierende Deduplikation Was ist die richtige Wahl? Storagetechnology 2010 Software oder Appliance basierende Deduplikation Was ist die richtige Wahl? Storagetechnology 2010 Frank Herold Manager PreSales CEE Quantums Portfolio StorNextSoftware DXiSerie ScalarSerie ManagementTools

Mehr

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Seit Microsoft Exchange Server 2010 bieten sich für Unternehmen gleich zwei mögliche Szenarien an, um eine rechtskonforme Archivierung

Mehr

Die richtige Cloud für Ihr Unternehmen.

Die richtige Cloud für Ihr Unternehmen. Die richtige Cloud für Ihr Unternehmen. Das ist die Microsoft Cloud. Jedes einzelne Unternehmen ist einzigartig. Ob Gesundheitswesen oder Einzelhandel, Produktion oder Finanzwesen keine zwei Unternehmen

Mehr

FLASHRECOVER SNAPSHOTS. Sofortige, unlimitierte Snapshots, speziell für 100 % Flash-Speicherung

FLASHRECOVER SNAPSHOTS. Sofortige, unlimitierte Snapshots, speziell für 100 % Flash-Speicherung FLASHRECOVER SNAPSHOTS Sofortige, unlimitierte Snapshots, speziell für 100 % Flash-Speicherung FLASHRECOVER SNAPSHOTS BIETEN EFFIZIENTE, SKALIERBARE UND LEICHT ZU VERWALTENDE SNAPSHOTS OHNE KOMPROMISSE

Mehr

Big Data Hype und Wirklichkeit Bringtmehrauchmehr?

Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Günther Stürner, Vice President Sales Consulting 1 Copyright 2011, Oracle and/or its affiliates. All rights Überschrift 2 Copyright 2011, Oracle and/or

Mehr

... 64 bit Televaulting

... 64 bit Televaulting Next Generation Backup und Recovery Software... 64 bit Televaulting Kronberg, 07. Mai 2007 Asigra, der Technologieführer im Bereich agentless Backup und Recovery- für Unternehmen und Service Provider,

Mehr

Oracle Database 10g Die RAC Evolution

Oracle Database 10g Die RAC Evolution Oracle Database 10g Die RAC Evolution Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 RAC-Revolution, RAC-Evolution & Computing Oracle8i mit OPS Oracle9i Rel.

Mehr

Storage as a Service im DataCenter

Storage as a Service im DataCenter Storage as a Service im DataCenter Agenda Definition Storage as a Service Storage as a Service und IT-Sicherheit Anwendungsmöglichkeiten und Architektur einer Storage as a Service Lösung Datensicherung

Mehr

Hitachi File & Content Services: Hitachi NAS Plattform. Uwe Angst NAS Business Manager

Hitachi File & Content Services: Hitachi NAS Plattform. Uwe Angst NAS Business Manager Hitachi File & Content Services: Hitachi NAS Plattform Uwe Angst NAS Business Manager 1 Hitachi, Ltd. (NYSE:HIT/TSE:6501) Einer der One of the weltgrössten integrierten Elektronikkonzerne Gegründet 1910

Mehr

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 0 Es TOP 10 DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 wird ein wichtiges Jahr für BIG (Business Intelligence Growth) 2012 war ein fantastisches Jahr für Business Intelligence! Die biedere alte

Mehr

Wie Sie mit Twitter neue Leads einsammeln

Wie Sie mit Twitter neue Leads einsammeln Wie Sie mit Twitter neue Leads einsammeln 10.03.2015 Worauf es ankommt, bisher unbekannte Kontakte via Twitter für sich zu begeistern Genau wie andere soziale Netzwerke ist auch Twitter eine gute Gelegenheit,

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

virtualization and clustering made simple OSL AKTUELL 2015

virtualization and clustering made simple OSL AKTUELL 2015 virtualization and clustering made simple OSL AKTUELL 2015 Schöneiche bei Berlin, 22. April 2015 Über OSL Entwicklung von Infrastruktursoftware (vom Treiber bis zur Oberfläche) im Umfeld von Rechenzentren

Mehr

FACTSHEET. Backup «ready to go»

FACTSHEET. Backup «ready to go» FACTSHEET Backup «ready to go» Backup «ready to go» für Ihre Virtualisierungs-Umgebung Nach wie vor werden immer mehr Unternehmensanwendungen und -daten auf virtuelle Maschinen verlagert. Mit dem stetigen

Mehr

Die Jagd nach Backup-Duplikaten wird jetzt noch effektiver. DXi4700 Deduplizierungs-Appliance

Die Jagd nach Backup-Duplikaten wird jetzt noch effektiver. DXi4700 Deduplizierungs-Appliance Die Jagd nach Backup-Duplikaten wird jetzt noch effektiver DXi4700 Deduplizierungs-Appliance Vielleicht die effizienteste, günstigste und leistungsfähigste Die Appliance setzt branchenweit neue Maßstäbe

Mehr

IBM SPSS Data Access Pack Installationsanweisung für Windows

IBM SPSS Data Access Pack Installationsanweisung für Windows IBM SPSS Data Access Pack Installationsanweisung für Windows Inhaltsverzeichnis Kapitel 1. Übersicht.......... 1 Einführung............... 1 Bereitstellen einer Datenzugriffstechnologie.... 1 ODBC-Datenquellen...........

Mehr

Klicken. Microsoft. Ganz einfach.

Klicken. Microsoft. Ganz einfach. EMC UNIFIED STORAGE FÜR VIRTUALISIERTE MICROSOFT- ANWENDUNGEN Klicken. Microsoft. Ganz einfach. Microsoft SQL Server Microsoft SQL Server-Datenbanken bilden die Basis für die geschäftskritischen Anwendungen

Mehr

egs Storage Offensive

egs Storage Offensive egs Storage Offensive Seit mittlerweile 5 Jahren können wir eine enge Partnerschaft zwischen der egs Netzwerk und Computersysteme GmbH und dem führenden Anbieter im Bereich Datenmanagement NetApp vorweisen.

Mehr

Magirus der IT-Infrastruktur und -Lösungsanbieter. Herzlich willkommen! 17.4. München 26.4. Düsseldorf. Seite 1. 03.5. Frankfurt

Magirus der IT-Infrastruktur und -Lösungsanbieter. Herzlich willkommen! 17.4. München 26.4. Düsseldorf. Seite 1. 03.5. Frankfurt Herzlich willkommen! 17.4. München 26.4. Düsseldorf Seite 1 03.5. Frankfurt Optimierung von IT-Infrastrukturen durch Serverund Storage-Virtualisierung IT-Infrastruktur- und -Lösungsanbieter Produkte, Services

Mehr

sedex-client Varianten für den Betrieb in einer hoch verfügbaren

sedex-client Varianten für den Betrieb in einer hoch verfügbaren Département fédéral de l'intérieur DFI Office fédéral de la statistique OFS Division Registres Team sedex 29.07.2014, version 1.0 sedex-client Varianten für den Betrieb in einer hoch verfügbaren Umgebung

Mehr

Dell Data Protection Solutions Datensicherungslösungen von Dell

Dell Data Protection Solutions Datensicherungslösungen von Dell Dell Data Protection Solutions Datensicherungslösungen von Dell André Plagemann SME DACH Region SME Data Protection DACH Region Dell Softwarelösungen Vereinfachung der IT. Minimierung von Risiken. Schnellere

Mehr

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick:

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Red Hat Storage Server Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Offene Software Lösung für Storage Ansprache über einen globalen Namensraum Betrachtet Storage als einen virtualisierten

Mehr

Dunkel Cloud Storage. Der sichere Cloud-Speicher für Unternehmen

Dunkel Cloud Storage. Der sichere Cloud-Speicher für Unternehmen Dunkel Cloud Storage Der sichere Cloud-Speicher für Unternehmen Was ist Dunkel Cloud Storage? Dunkel Cloud Storage (DCS) stellt Ihnen Speicherplatz nach Bedarf zur Verfügung, auf den Sie jederzeit über

Mehr

Vorstellung SimpliVity. Tristan P. Andres Senior IT Consultant

Vorstellung SimpliVity. Tristan P. Andres Senior IT Consultant Vorstellung SimpliVity Tristan P. Andres Senior IT Consultant Agenda Wer ist SimpliVity Was ist SimpliVity Wie funktioniert SimpliVity Vergleiche vsan, vflash Read Cache und SimpliVity Gegründet im Jahr

Mehr

Desktop Virtualisierung. marium VDI. die IT-Lösung für Ihren Erfolg

Desktop Virtualisierung. marium VDI. die IT-Lösung für Ihren Erfolg Desktop Virtualisierung marium VDI die IT-Lösung für Ihren Erfolg marium VDI mariumvdi VDI ( Desktop Virtualisierung) Die Kosten für die Verwaltung von Desktop-Computern in Unternehmen steigen stetig und

Mehr

Der PC im PC: Virtualisierung

Der PC im PC: Virtualisierung Der PC im PC: Virtualisierung Virtual Box installieren Virtual Box unter https://www.virtualbox.org/wiki/downloads downloaden und wie normales Programm installieren (Admin-Rechte erforderlich) Virtuelle

Mehr

EIN ZUVERLÄSSIGER PARTNER.

EIN ZUVERLÄSSIGER PARTNER. EIN ZUVERLÄSSIGER PARTNER. Bisher wurden Carestream Vue Installationen an über 2.500 Standorten und mehr als zehn Cloud-Infrastrukturen weltweit realisiert. Unsere Service Teams bieten Ihnen umfangreiche,

Mehr

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG!

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! JUNI 2011 Sehr geehrter Geschäftspartner, (oder die, die es gerne werden möchten) das Thema Virtualisierung oder die Cloud ist in aller Munde wir möchten Ihnen

Mehr

Information Lifecycle Management (ILM) - neue Speicherkonzepte für die digitale Archivierung. Dr. Bernhard Wentz

Information Lifecycle Management (ILM) - neue Speicherkonzepte für die digitale Archivierung. Dr. Bernhard Wentz Information Lifecycle Management (ILM) - neue Speicherkonzepte für die digitale Archivierung Einleitung und Motivation Medizinische IT-Anwendungssysteme komplexe hoch funktionale Systeme Basisfunktionen

Mehr

Tutorial Speichernetze

Tutorial Speichernetze Tutorial Speichernetze Speichervirtualisierung Speichernetze Grundlagen und Einsatz von Fibre Channel SAN, NAS, iscsi und InfiniBand dpunkt.verlag 2003 Agenda Probleme in Speichernetzen Speichervirtualisierung

Mehr

Desktopvirtualisierung 2009 ACP Gruppe

Desktopvirtualisierung 2009 ACP Gruppe Konsolidieren Optimieren Automatisieren Desktopvirtualisierung Was beschäftigt Sie Nachts? Wie kann ich das Desktop- Management aufrechterhalten oder verbessern, wenn ich mit weniger mehr erreichen soll?

Mehr

Diese Produkte stehen kurz vor end of support 14. Juli 2015. Extended Support

Diese Produkte stehen kurz vor end of support 14. Juli 2015. Extended Support Diese Produkte stehen kurz vor end of support Extended Support endet 14. Juli 2015 Produkt Bestandteile Extended Support End Datum Exchange Server 2003 Standard Edition 8. April 2014 Windows SharePoint

Mehr

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data: Nutzen und Anwendungsszenarien CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data steht für den unaufhaltsamen Trend, dass immer mehr Daten in Unternehmen anfallen und von

Mehr

WICHTIGE GRÜNDE FÜR EMC FÜR DAS ORACLE-LIFECYCLE-MANAGEMENT

WICHTIGE GRÜNDE FÜR EMC FÜR DAS ORACLE-LIFECYCLE-MANAGEMENT WICHTIGE GRÜNDE FÜR EMC FÜR DAS ORACLE-LIFECYCLE-MANAGEMENT ÜBERBLICK ORACLE-LIFECYCLE-MANAGEMENT Flexibilität AppSync bietet in das Produkt integrierte Replikationstechnologien von Oracle und EMC, die

Mehr

Azure und die Cloud. Proseminar Objektorientiertes Programmieren mit.net und C# Simon Pigat. Institut für Informatik Software & Systems Engineering

Azure und die Cloud. Proseminar Objektorientiertes Programmieren mit.net und C# Simon Pigat. Institut für Informatik Software & Systems Engineering Azure und die Cloud Proseminar Objektorientiertes Programmieren mit.net und C# Simon Pigat Institut für Informatik Software & Systems Engineering Agenda Was heißt Cloud? IaaS? PaaS? SaaS? Woraus besteht

Mehr

Heterogenes Speichermanagement mit V:DRIVE

Heterogenes Speichermanagement mit V:DRIVE Heterogenes Speichermanagement mit V:DRIVE V:DRIVE - Grundlage eines effizienten Speichermanagements Die Datenexplosion verlangt nach innovativem Speichermanagement Moderne Businessprozesse verlangen auf

Mehr

Das perfekte Rechenzentrum mit PernixData Architect & FVP

Das perfekte Rechenzentrum mit PernixData Architect & FVP Das perfekte Rechenzentrum mit PernixData Architect & FVP Auf der Reise zu einem RZ ohne Performance Probleme Patrick Schulz - Systems Engineer pschulz@pernixdata.com Twitter: @PatrickSchulz1 Blog: www.vtricks.com

Mehr

MS SharePoint stellt Ihnen ein Intranet Portal zur Verfügung. Sie können Ihre Inhalte weltweit verfügbar machen auch für mobile Endgeräte.

MS SharePoint stellt Ihnen ein Intranet Portal zur Verfügung. Sie können Ihre Inhalte weltweit verfügbar machen auch für mobile Endgeräte. Microsoft SharePoint Microsoft SharePoint ist die Business Plattform für Zusammenarbeit im Unternehmen und im Web. Der MS SharePoint vereinfacht die Zusammenarbeit Ihrer Mitarbeiter. Durch die Verbindung

Mehr

Think Fast: Weltweit schnellste Backup-Lösung jetzt auch für Archivierung

Think Fast: Weltweit schnellste Backup-Lösung jetzt auch für Archivierung Think Fast: Weltweit schnellste Backup-Lösung jetzt auch für Archivierung Weltweit schnellste Backup-Systeme Das weltweit erste System für die langfristige Aufbewahrung von Backup- und Archivdaten 1 Meistern

Mehr

PVFS (Parallel Virtual File System)

PVFS (Parallel Virtual File System) Management grosser Datenmengen PVFS (Parallel Virtual File System) Thorsten Schütt thorsten.schuett@zib.de Management grosser Datenmengen p.1/?? Inhalt Einführung in verteilte Dateisysteme Architektur

Mehr

Wie überlebt man ein Disaster?

Wie überlebt man ein Disaster? Einige Ideen und Ansätze Themenübersicht Disaster auch hier in Österreich? Kundenenvironments wohin geht die Reise? Ideen und Ansätze Lizensierung nicht vergessen! Disaster auch hier in Österreich? Überschwemmungen

Mehr

Ihre Informationen in guten. Bedarfsgerechte Lösungen für Ihr Informationsmanagement

Ihre Informationen in guten. Bedarfsgerechte Lösungen für Ihr Informationsmanagement Ihre Informationen in guten Händen. Mit Sicherheit. 4444444444444444444444444444444444444444444444444444444444444444444444444444444444444444444444 Bedarfsgerechte Lösungen für Ihr Informationsmanagement

Mehr

VMware vsphere 6.0 Neuigkeiten und neue Features

VMware vsphere 6.0 Neuigkeiten und neue Features VMware vsphere 6.0 Neuigkeiten und neue Features Präsentation 30. Juni 2015 1 Diese Folien sind einführendes Material für ein Seminar im Rahmen der Virtualisierung. Für ein Selbststudium sind sie nicht

Mehr

Big Data in der Forschung

Big Data in der Forschung Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die

Mehr

IT SOLUSCOPE. Intuitiv, Rückverfolgbarkeit, Überwachung

IT SOLUSCOPE. Intuitiv, Rückverfolgbarkeit, Überwachung IT SOLUSCOPE Intuitiv, Rückverfolgbarkeit, Überwachung IT SOLUSCOPE Intuitiv IT SOLUSCOPE Basierend auf der Informationstechnologie vernetzt IT Soluscope Ihre Soluscope Geräte und informiert Sie in Echtzeit

Mehr

Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC. Alexander Scholz

Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC. Alexander Scholz Hochverfügbar und Skalierung mit und ohne RAC Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC Alexander Scholz Copyright its-people Alexander Scholz 1 Einleitung Hochverfügbarkeit

Mehr

Effizienter Einsatz von Flash-Technologien im Data Center

Effizienter Einsatz von Flash-Technologien im Data Center Effizienter Einsatz von Flash-Technologien im Data Center Herbert Bild Solution Marketing Manager Georg Mey Solutions Architect 1 Der Flash-Hype 2 Drei Gründe für den Hype um Flash: 1. Ungebremstes Datenwachstum

Mehr

Virtualisierung im IT-Betrieb der BA

Virtualisierung im IT-Betrieb der BA Virtualisierung, essenzielles Werkzeug in der IT-Fabrik Martin Deeg, Anwendungsszenarien Cloud Computing, 31. August 2010 Virtualisierung im IT-Betrieb der BA Virtualisierung im IT-Betrieb der BA Effizienzsteigerung

Mehr

PROFI UND NUTANIX. Portfolioerweiterung im Software Defined Data Center

PROFI UND NUTANIX. Portfolioerweiterung im Software Defined Data Center PROFI UND NUTANIX Portfolioerweiterung im Software Defined Data Center IDC geht davon aus, dass Software-basierter Speicher letztendlich eine wichtige Rolle in jedem Data Center spielen wird entweder als

Mehr

In 15 einfachen Schritten zum mobilen PC mit Paragon Drive Copy 10 und Microsoft Windows Virtual PC

In 15 einfachen Schritten zum mobilen PC mit Paragon Drive Copy 10 und Microsoft Windows Virtual PC PARAGON Technologie GmbH, Systemprogrammierung Heinrich-von-Stephan-Str. 5c 79100 Freiburg, Germany Tel. +49 (0) 761 59018201 Fax +49 (0) 761 59018130 Internet www.paragon-software.com Email sales@paragon-software.com

Mehr

Oracle Hot Standby. XE, SEOne, SE. Maximum Performance Mode. WIN, Linux, Unix Einfache Lösung. bis zu 10 Standby DB

Oracle Hot Standby. XE, SEOne, SE. Maximum Performance Mode. WIN, Linux, Unix Einfache Lösung. bis zu 10 Standby DB Network Failure Management Graceful Switchover XE, SEOne, SE WIN, Linux, Unix Einfache Lösung Oracle Hot Standby Maximum Performance Mode 100% Java Kompression bis zu 10 Standby DB Die Oracle Experten

Mehr

Cloud? Vertrauen kann sich nur entwickeln. Genau wie Ihr Business.

Cloud? Vertrauen kann sich nur entwickeln. Genau wie Ihr Business. Cloud? Vertrauen kann sich nur entwickeln. Genau wie Ihr Business. Inhaltsverzeichnis Wie der moderne CIO den Übergang von IT-Infrastruktur- Optimierung zu Innovation meistert Wie kann ich Elemente meiner

Mehr

KASPERSKY SECURITY FOR VIRTUALIZATION 2015

KASPERSKY SECURITY FOR VIRTUALIZATION 2015 KASPERSKY SECURITY FOR VIRTUALIZATION 2015 Leistung, Kosten, Sicherheit: Bessere Performance und mehr Effizienz beim Schutz von virtualisierten Umgebungen AGENDA - Virtualisierung im Rechenzentrum - Marktübersicht

Mehr

Vom Intranet zum Knowledge Management

Vom Intranet zum Knowledge Management Vom Intranet zum Knowledge Management Die Veränderung der Informationskultur in Organisationen von Martin Kuppinger, Michael Woywode 1. Auflage Hanser München 2000 Verlag C.H. Beck im Internet: www.beck.de

Mehr

Jetzt von 7-Mode nach cdot migrieren!

Jetzt von 7-Mode nach cdot migrieren! Distribution Partner Jetzt von 7-Mode nach cdot migrieren! Sind die NetApp-Umgebungen Ihrer Kunden auf dem neuesten Stand der Technik? Das neue Betriebssystem von NetApp, Clustered Data ONTAP (kurz cdot),

Mehr

Wir machen das Komplizierte einfach

Wir machen das Komplizierte einfach Unser Konzept beruht darauf, dass der Käufer seine Kaufentscheidung umso bewusster trifft, je mehr zuverlässige und umfassende Informationen er über einen Artikel hat. Folglich wird er auch mit seinem

Mehr

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN CLOUD-ENTWICKLUNG: BESTE METHODEN 1 Cloud-basierte Lösungen sind auf dem IT-Markt immer weiter verbreitet und werden von immer mehr

Mehr

Oracle EngineeredSystems

Oracle EngineeredSystems Oracle EngineeredSystems Überblick was es alles gibt Themenübersicht Überblick über die Engineered Systems von Oracle Was gibt es und was ist der Einsatzzweck? Wann machen diese Systeme Sinn? Limitationen

Mehr

Parallels Desktop for Upgrading to Windows 7

Parallels Desktop for Upgrading to Windows 7 Parallels Desktop for Upgrading to Windows 7 Schnellstartanleitung & Endbenutzer-Lizenzvertrag Die einfache, sichere und erfolgreiche Lösung für das Upgrade Es gibt zwei verschiedene Einsatzmöglichkeiten

Mehr

HYBRID CLOUD IN DEUTSCHLAND 2015/16

HYBRID CLOUD IN DEUTSCHLAND 2015/16 Fallstudie: Microsoft Deutschland GmbH IDC Multi-Client-Projekt HYBRID CLOUD IN DEUTSCHLAND 2015/16 Mit hybriden IT-Landschaften zur Digitalen Transformation? MICROSOFT DEUTSCHLAND GMBH Fallstudie: Telefónica

Mehr

IT-Lösungsplattformen

IT-Lösungsplattformen IT-Lösungsplattformen - Server-Virtualisierung - Desktop-Virtualisierung - Herstellervergleiche - Microsoft Windows 2008 für KMU s Engineering engineering@arcon.ch ABACUS Kundentagung, 20.11.2008 1 Agenda

Mehr

WAN Beschleunigung schneller Datentransport, kurze Backupfenster

WAN Beschleunigung schneller Datentransport, kurze Backupfenster Beschleunigung schneller Datentransport, kurze Backupfenster connecting different worlds Christian Hansmann Beschleunigung schneller Datentransport, kurze Backupfenster Begrüßung, Vorstellung Herausforderungen

Mehr

VMware Schutz mit NovaBACKUP BE Virtual

VMware Schutz mit NovaBACKUP BE Virtual VMware Schutz mit NovaBACKUP BE Virtual Anforderungen, Konfiguration und Restore-Anleitung Ein Leitfaden (September 2011) Inhalt Inhalt... 1 Einleitung... 2 Zusammenfassung... 3 Konfiguration von NovaBACKUP...

Mehr

Die Public Cloud als Königsweg

Die Public Cloud als Königsweg Die Public Cloud als Königsweg Die Public Cloud als Königsweg 2 Die Public Cloud erscheint auf dem Radarschirm aller CIOs, die künftige Computerstrategien für Ihr Unternehmen planen. Obwohl die Public

Mehr

WILLKOMMEN 100.000. Quantum ist der weltweit GRÖSSTE Spezialist für Backup, Recovery und Archivierung von Daten.

WILLKOMMEN 100.000. Quantum ist der weltweit GRÖSSTE Spezialist für Backup, Recovery und Archivierung von Daten. 85 der Fortune 100-Unternehmen arbeiten mit Quantum 10 -mal Produkt des Jahres WILLKOMMEN Quantum ist der weltweit GRÖSSTE Spezialist für Backup, Recovery und Archivierung von Daten. 33 Jahre Branchenerfahrung

Mehr

Hyper-Converged - Weniger ist mehr!

Hyper-Converged - Weniger ist mehr! Hyper-Converged - Weniger ist mehr! oder wenn 2 > 3 ist! Name Position 1 Rasches Wachstum bei Hyper-Konvergenz Starke Marktprognosen für integrierte Systeme (Konvergent und Hyper-Konvergent) - 50 % jährlich

Mehr

Buildfrei skalieren für Big Data mit Z2

Buildfrei skalieren für Big Data mit Z2 Buildfrei skalieren für Big Data mit Z2 Henning Blohm ZFabrik Software KG 5.6.2013 1 Teil 1: Buildfrei entwickeln und skalieren Teil 2: Big Data, Cloud, und wie es zusammenpasst 2 1. Teil BUILDFREI ENTWICKELN

Mehr

Big Data Informationen neu gelebt

Big Data Informationen neu gelebt Seminarunterlage Version: 1.01 Copyright Version 1.01 vom 21. Mai 2015 Dieses Dokument wird durch die veröffentlicht. Copyright. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen

Mehr

Aufbau einer Testumgebung mit VMware Server

Aufbau einer Testumgebung mit VMware Server Aufbau einer Testumgebung mit VMware Server 1. Download des kostenlosen VMware Servers / Registrierung... 2 2. Installation der Software... 2 2.1 VMware Server Windows client package... 3 3. Einrichten

Mehr

SANTEC Video Technologies Professionelle Lösungen für mehr Sicherheit

SANTEC Video Technologies Professionelle Lösungen für mehr Sicherheit 1 SANTEC Video Technologies Professionelle Lösungen für mehr Sicherheit Videoüberwachung Netzwerktechnik IR-Freilandsensorik Dienstleistungen Pivot3 Ressourcen sparen mit Pivot3 Server-/Storage-Lösungen

Mehr

Operational Big Data effektiv nutzen TIBCO LogLogic. Martin Ulmer, Tibco LogLogic Deutschland

Operational Big Data effektiv nutzen TIBCO LogLogic. Martin Ulmer, Tibco LogLogic Deutschland Operational Big Data effektiv nutzen TIBCO LogLogic Martin Ulmer, Tibco LogLogic Deutschland LOGS HINTERLASSEN SPUREN? Wer hat wann was gemacht Halten wir interne und externe IT Richtlinien ein Ist die

Mehr

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte I N F O R M A T I O N V I R T U A L I S I E R U N G Wir schützen Ihre Unternehmenswerte Wir schützen Ihre Unternehmenswerte Ausfallsicherheit durch Virtualisierung Die heutigen Anforderungen an IT-Infrastrukturen

Mehr

Die maßgeschneiderte IT-Infrastruktur aus der Südtiroler Cloud

Die maßgeschneiderte IT-Infrastruktur aus der Südtiroler Cloud Die maßgeschneiderte IT-Infrastruktur aus der Südtiroler Cloud Sie konzentrieren sich auf Ihr Kerngeschäft und RUN AG kümmert sich um Ihre IT-Infrastruktur. Vergessen Sie das veraltetes Modell ein Server,

Mehr

TIM AG. NetApp @ BASYS. Dipl. Informatiker (FH) Harald Will Consultant

TIM AG. NetApp @ BASYS. Dipl. Informatiker (FH) Harald Will Consultant NetApp @ BASYS Dipl. Informatiker (FH) Harald Will Consultant Organisatorisch Teilnehmerliste Agenda NetApp @ BASYS Data ONTAP Features cdot die neue Architektur Flash die neue Technologie Live Demo Agenda

Mehr

Copyr i g ht 2014, SAS Ins titut e Inc. All rights res er ve d. HERZLICH WILLKOMMEN ZUR VERANSTALTUNG VISUAL ANALYTICS

Copyr i g ht 2014, SAS Ins titut e Inc. All rights res er ve d. HERZLICH WILLKOMMEN ZUR VERANSTALTUNG VISUAL ANALYTICS HERZLICH WILLKOMMEN ZUR VERANSTALTUNG VISUAL ANALYTICS AGENDA VISUAL ANALYTICS 9:00 09:30 Das datengetriebene Unternehmen: Big Data Analytics mit SAS die digitale Transformation: Handlungsfelder für IT

Mehr

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem Fachbericht zum Thema: Anforderungen an ein Datenbanksystem von André Franken 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 2 Einführung 2 2.1 Gründe für den Einsatz von DB-Systemen 2 2.2 Definition: Datenbank

Mehr

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2.

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2. Cloud Computing Frank Hallas und Alexander Butiu Universität Erlangen Nürnberg, Lehrstuhl für Hardware/Software CoDesign Multicorearchitectures and Programming Seminar, Sommersemester 2013 1. Definition

Mehr

«EFFIZIENTE UND SICHERE IT-INFRASTRUKTUREN... In&Out AG IT Consulting & Engineering info@inout.ch www.inout.ch

«EFFIZIENTE UND SICHERE IT-INFRASTRUKTUREN... In&Out AG IT Consulting & Engineering info@inout.ch www.inout.ch «EFFIZIENTE UND SICHERE IT-INFRASTRUKTUREN... In&Out AG IT Consulting & Engineering info@inout.ch www.inout.ch DATENCENTERFORUM 2014 WIE DIE ZUKÜNFTIGE ENTWICKLUNG DER IT IHREN DATA CENTER BETRIEB BEEINFLUSSEN

Mehr

HP STOREVIRTUAL STORAGE. Erweiterbarer Speicher für virtualisierte Umgebungen

HP STOREVIRTUAL STORAGE. Erweiterbarer Speicher für virtualisierte Umgebungen STORAGE Erweiterbarer Speicher für virtualisierte Umgebungen STORAGE 1. HP Disk Storage Systeme 2. HP StoreVirtual Hardware 3. HP StoreVirtual Konzept 4. HP StoreVirtual VSA 5. HP StoreVirtual Management

Mehr

Grundlagen beim Linkaufbau

Grundlagen beim Linkaufbau Grundlagen beim Linkaufbau Link-Building welches heute eher als Link-Earning bezeichnet wird, hat sich in den letzten Jahren dramatisch verändert. Was sich nicht verändert hat, ist die Tatsache, dass Links

Mehr

Software Defined Storage in der Praxis

Software Defined Storage in der Praxis Software Defined Storage in der Praxis - Vorteile und Nutzen für jede Unternehmensgröße - Torsten Welke Regional Manager Nord 1 Speicherbedarf nimmt weiter rasant zu - aber ohne Nachhaltigkeit - 2 Herausforderungen

Mehr

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd.

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd. Warum viele Daten für ein smartes Unternehmen wichtig sind Gerald AUFMUTH IBM Client Technical Specialst Data Warehouse Professional Explosionsartige Zunahme an Informationen Volumen. 15 Petabyte Menge

Mehr

Anforderungen im Datenmanagement treiben den Wechsel zu 2,5-Zoll- Festplatten im Unternehmenseinsatz voran

Anforderungen im Datenmanagement treiben den Wechsel zu 2,5-Zoll- Festplatten im Unternehmenseinsatz voran Anforderungen im Datenmanagement treiben den Wechsel zu 2,5-Zoll- Festplatten im Unternehmenseinsatz voran Die weltweite Informationsgesellschaft entwickelt einen gewaltigen Appetit nach Speicherkapazität:

Mehr