System Engineering and Management WS11/12. Praktische Betrachtung von GlusterFS als verteiltes Dateisystem

Größe: px
Ab Seite anzeigen:

Download "System Engineering and Management WS11/12. Praktische Betrachtung von GlusterFS als verteiltes Dateisystem"

Transkript

1 Praktische Betrachtung von GlusterFS als verteiltes Dateisystem Fechter, Patrick stuttgart.de Harr, Jörg Hoffmann, Marvin stuttgart.de stuttgart.de 1

2 1 Einführung Bei GlusterFS handelt es sich, wie im Titel bereits verraten, um ein verteiltes Dateisystem. Aufgrund der Verteilung bietet das System die Möglichkeit, Daten auf unterschiedlichen Servern (Nodes) zu speichern. Die Verteilung im Detail, kann je nach Konfiguration unterschiedlich aussehen. Als mögliche Verteilungsvarianten, kann man sich hierfür die bekannten RAID Levels vorstellen, welche man aber anstelle von Festplatten auf ganze Serversysteme im Netzwerk projiziert. Dieser Vergleich, fasst ein verteiltes Dateisystem als solches schon recht gut zusammen. GlusterFS im Speziellen lockt nun noch mit weiteren 1 Funktionalitäten, weshalb es sich in einschlägigen Medien zu dem Dateisystem im Zusammenhang mit scalability, performance und fault tolerance entwickelt hat. Der anhaltende Trend bezüglich Cloud Computing trägt hierzu ebenso bei und GlusterFS taucht hierbei häufig in diesem Zusammenhang auf. Es entsteht gar der Eindruck, dass GlusterFS für das Betreiben einer eigenen Cloud Infrastruktur unabdingbar ist. Trotz der Übernahme durch Red Hat im Oktober 2011 für insgesamt 136 Millionen US Dollar, engagieren sich Firmen wie Citrix und Facebook aktiv für die Weiterentwicklung von GlusterFS. Die Tatsache, dass Red Hat das Projekt Open Source weiterführt und sich lediglich als Sponsor betitelt, ist hierbei sicherlich hilfreich Motivation Es wurde bereits angesprochen, dass GlusterFS einhergeht mit dem alles durchdringenden Trend des Cloud Computings. Ein Dateisystem stellt eine essentielle Komponente innerhalb eines Systems dar und so erhält GlusterFS, keine Frage, zu recht viel Aufmerksamkeit. Auch deshalb, weil man oberflächlich betrachtet das Gefühl hat auf dem Gebiet der Dateisysteme ist das letzte Wörtchen schon längst gesprochen. 136 Millionen US Dollar in bar (siehe Linux Magazin) hört sich eigentlich eher nach einem schlechten Film mit einer Geldübergabe an einer Parkbank an. Niemand wird bestreiten, dass eine solche Meldung bezüglich eines Dateisystems, doch den ein oder anderen neugierig gemacht hat. Das 136 Millionen US Dollar Dateisystem selbst nach mehrfachem lesen hört sich das noch komisch an. Wie dem auch sei, es kommt wie gerufen, bewegt sich bei den Dateisystemen also doch noch was! Schaffen es im Umfeld von Dateisystemen doch tatsächlich nur wenige 1 Unterstuetzung fuer GlusterFS html 2 magazin.de/news/red Hat kauft Storage Spezialisten Gluster 2

3 Innovationen an die Oberfläche des ansonsten so stark sprudelnden Innovationsbrunnen der ITK Branche. Etwa das Dateisystem Ext4, welches das berühmte Linux Dateisystem Ext3 als Quasistandard ablöste und Ende 2008 seine Hauptentwicklungsphase hinter sich lies. Hauptsächlich die Optimierungen 3 von Ext4 bezüglich SSD Festplatten sollten hierbei erwähnt werden. Sicherlich gibt es viele weitere solcher positiven Beispiele und es soll nun nicht ein falsches Bild bezüglich einer nicht vorhandenen Forschung auf dem Gebiet der Dateisysteme vermittelt werden. Nur leider sind viele Veröffentlichungen davon nur schwer greifbar und sind die theoretischen Grundlagen verstanden, lassen sich diese aber dennoch nur äußerst selten in praktische Realisierungsüberlegungen ummünzen wie etwa bei dem äußerst bekannten Google Dateisystem. Tatsächlich ist dieses Dateisystem nirgends verfügbar und so sind zwar die Konzepte interessant, der praktische Nutzen jedoch gering. Zumindest lief eine erste Recherche nach einer Implementierung des Google Dateisystems ins Leere. Zusammenfassend kann man also sagen, dass die Kombination aus dem spannenden Gebiet von Cloud Computing, der medialen Aufmerksamkeit durch den Aufkauf von Red Hat 4 und die Möglichkeit, tatsächlich mal eine bis zu 72 brontobytes skalierbare, performante und fehler tolerante Speicherlösung betreiben zu können, Grund genug war um uns für dieses Thema zu entscheiden. Man selbst möchte wissen, ob man wirklich mit wenig Geld und gängiger Hardware in derart große Dimensionen vorstoßen kann und wie das letztlich dann praktisch aussieht. 1.2 Zielsetzung Was haben wir uns vorgenommen? Zunächst einmal wollten wir die Software GlusterFS aus technischer und praktischer Sicht kennenlernen. Die Artikel die uns bisher bekannt sind, waren uns doch etwas zu stark auf die neue geschäftliche Beziehung zu Red Hat fokussiert. 5 6 Weiter hat uns der Unterschied zu dem bereits bekannten Google File System oder Hadoop HDFS 7 vielleicht sogar einmalig machen? neugierig gemacht. Was sind Merkmale die GlusterFS abgrenzen und Weiter wollten wir ein Test System aufsetzten, mit Hilfe dessen wir die versprochenen 3 krenn.com/de/wiki/ext4_dateisystem#ssd_optimierungen the difference in glusterfs and hadoop google file system/ 6 11/2006/gfs.pdf 7 3

4 Eigenschaften auf einen realistischen Prüfstand stellen konnten. Die Kern Hypothese die es zu belegen galt war: Mit GlusterFS ist es mit geringem Aufwand möglich, anstelle teurer Enterprise Hardware einfache Consumer Hardware zu verwenden und dennoch eine 8 hoch skalierbare Storage Lösung zu betreiben. Der DELL PowerVault NX3500 liegt bei etwa und skaliert bis 389 TB. Dieser Preis enthält jedoch keine Aufwände für Datenträger. Sprich, die Realisierung einer solchen Lösung wird realistisch betrachtet, um ein vielfaches teurer werden. Der DELL PowerVault NX3500 ist aber dennoch ein sehr guter Vergleich, da GlusterFS viele seiner Funktionalitäten quasi kostenlos verspricht. Angefangen bei der Skalierung bezüglich Storage als auch Performance, der Ausfallsicherheit sowie einer Backuplösung durch die Replikation der Daten auf verschiedenen Nodes. Ob wir diese Versprechen bedingungslos vertreten können, galt es herauszufinden. 8 nx3500/pd 4

5 2 Theoretische Grundlagen 2.1 Fuse Seit 2005 in den offiziellen Linux Kernel aufgenommen, ist FUSE längst den meisten einschlägigen Fachleuten ein Begriff. FUSE steht für Filesystem in Userspace und wurde auf Sourceforge ins Leben gerufen. Ursprünglich als Unterstützung für A Virtual File System (AVFS) 10 gedacht, hat es sich schnell als eigenes Projekt etabliert. Es handelt sich hierbei um ein Kernel Modul für Unix Systeme welches erlaubt, Dateisystem Treiber im User Mode auszuführen und nicht wie üblich im Kernel Mode. Somit können beispielsweiße auch unter Unix Systemen wie Linux oder Mac OS X systemfremde Dateisysteme wie NTFS im unpriviligierten User Mode gemountet werden. Ein weiteres Beispiel für ein solches Dateisystem ist das in diesem Paper beleuchtete GlusterFS. Abbildung 1: Aufrufpfad eines Filesystem Calls über FUSE Dadurch dass GlusterFS auf FUSE aufsetzt und somit im Userspace läuft, ist die 9 FUSE Projekt auf Sourceforge: 10 AVFS Projekt auf Sourceforge: 5

6 Anwendung sehr viel flexibler. Anwendungen die im Userspace angesiedelt sind sprechen nicht direkt mit der Hardware, sondern interagieren nur über den Kernel mit ihr. Die Lücke zwischen Gluster und Kernel Interface wird von FUSE geschlossen. 2.2 Elastic Hash Algorithmus Eine Besonderheit die Red Hat an seinem GlusterFS hervorhebt ist die Tatsache, dass das Filesystem, trotz der Möglichkeit einer Verteilung über mehrere Nodes, über kein Meta Daten Repository verfügen muss. Eingespart wird dieses Repository dadurch, dass es den sogenannten Elastic Hash Algorithmus einsetzt. Doch was bedeutet das und wofür wird es überhaupt gebraucht? Betrachten wir hierfür ein Szenario, bei dem ein GlusterFS so konfiguriert wurde, dass zu speichernde Dateien über vier Nodes hinweg verteilt werden. Eine Datei zu speichern ist noch relativ simpel. Sie wird einfach auf einem der vier Nodes abgelegt. Doch wenn die Datei wieder gelesen werden soll, dann sollte man auch noch wissen wo die Datei abgelegt wurde. Hierfür gibt es nun zwei populäre Möglichkeiten. Die erste Möglichkeit ist die Einführung eines Meta Daten Repositorys. Das heißt für jede Datei die gespeichert wird halte ich an einem global bekannten Ort fest, wo die Datei abgelegt wurde. Wenn die selbe Datei nun wieder gelesen werden soll, dann muss lediglich in dem Repository nachgeschaut werden wo sie sich befindet und kann ausgeliefert werden. Es muss lediglich in dem Repository nachgeschaut werden klingt zunächst ziemlich trivial und leichtgewichtig, ist jedoch bei extrem vielen Zugriffen trotzdem ein spürbarer zeitlicher Overhead. Für jeden Zugriff auf eine Datei muss zunächst auf das Repository zugegriffen werden. Das heißt natürlich auch, dass das Repository entsprechend damit umgehen können muss. Sowohl wenn viele Dateien gelesen werden, als auch wenn viele Dateien geschrieben werden. Wäre es nicht schön wenn man sich diesen Zwischenschritt sparen könnte? Doch, das wäre es. Und hier setzt Möglichkeit zwei an. Der Node auf dem die Datei gespeichert wird, wird von der Datei selbst bestimmt. Durch die Anwendung einer Hash Funktion auf die Datei wird der Node bestimmt an dem sie abgelegt wird. Abbildung 2 versucht dies darzustellen. Die Werte die über die Hash Funktion errechnet werden sind (hoffentlich) identisch für eine angeforderte Datei, wie für eine abgelieferte Datei. Somit wird kein Repository benötigt in dem der Pfad festgehalten wird, sondern der Pfad kann jederzeit über die Hash Funktion ermittelt werden. Wichtig ist, dass 6

7 die Anzahl der Nodes in diese Rechnung einfließt, damit die Funktion elastisch bleibt und für eine beliebige Anzahl an Nodes konsistente Ergebnisse liefert. Abbildung 2: Verteilung von Daten auf vier Nodes anhand einer Hash Funktion Bild Quelle: magic of consistent hashing.html 7

8 3 Versuchsaufbau Nachdem wir uns in die theoretischen Grundlagen von GlusterFS eingearbeitet haben und die Ziele definiert waren, war der nächste Schritt eine lauffähige Instanz des Filesystems aufzusetzen. Um hier schnell voran zu kommen, entschieden wir uns das Filesystem in virtuellen Maschinen zu installieren. Dieses hatte den Vorteil, dass wir dieses nur einmal konfigurieren mussten und somit das Image auf verschiedene Rechner verteilen konnten. Damit wir keine Probleme mit den Berechtigungen bekamen und die Netzwerkverbindung in unserer Hand hatten, entschieden wir uns die VMs auf unseren Rechnern zu installieren. Die Verbindung zwischen den Host Rechnern wurde direkt über einen lokalen Switch hergestellt. Für die lokale Verbindung zwischen den Host Rechnern wurde ein 1 Gigabit Switch dem Labor verwendet. Für die vier Instanzen des Filesystems verwendeten wir zwei Notebooks von Dell und ein Macbook Pro. Die genauen Technischen Details der Hardware werden in nachstehender Tabelle aufgelistet. 12 aus # Notebook Prozessor RAM Festplatte Netzwe rk 1 MacBook Pro 15 (Feb 11) 2 Dell Latitude E6400 Intel Core 2,4 GHz Intel Core 2 2,4 GHz 4 GB 7200 rpm 1 Gbit/s 4 GB 7200 rpm 1 Gbit/s 3 Dell XPS 1530 Intel Core 2 2,2 GHz 3 GB 7200 rpm 100 Mbit/s Tabelle 1: Hardware der Host Rechner Für die Virtualisierung auf den Host Systemen wurde die Open Source Lösung Oracle VM VirtualBox in der Version 4.1 verwendet. In der VM kam Ubuntu LTS Server zum Einsatz. 3.1 Architektur Wie in Abbildung 3 dargestellt, werden auf den zwei Dell Maschinen jeweils eine VM Instanz 12 HP ProCurve Switch 1810G 8 13 https://www.virtualbox.org/ 14 8

9 gestartet und auf dem leistungsfähigeren MacBook Pro zwei VM Instanzen. Die Daten des GlusterFS Clusters werden nun über einen GlusterFS Native Client nach außen hin zur Verfügung gestellt. Diese Client Komponente ist für UNIX Systeme verfügbar und war auf Node 2 installiert, um auf die Daten zuzugreifen. Abbildung 3: Logischer Aufbau des Versuches 3.2 Installation GlusterFS kann bei Ubuntu direkt aus dem Paketmanager installiert werden. Es besteht aus zwei Teilen; dem Server Modul welche auf jedem Node installiert sein muss und dem Native Client, der einen gemeinsamen Namespace über alle Server Nodes hinweg bereitstellt und benötigt wird, um auf die Daten zuzugreifen. Beide Komponenten wurde jeweils in der Version installiert. # sudo aptitude install glusterfs server # sudo aptitude install glusterfs client 3.3 Konfiguration Aus den vier vorhanden Nodes wurden jeweils zwei im Striping Modus betrieben. Zwischen den beiden Stripes wurden die Daten dann zusätzlich gespiegelt. Abbildung 4 verdeutlicht 9

10 den Aufbau grafisch. Abbildung 4: Logischer Aufbau des Versuches Die Aufbau des Dateisystems wird über zwei Konfigurationsdateien festgelegt. Die Konfiguration der Client Komponente ist in der glusterfs.vol niedergeschrieben, die der Server Komponente in der glusterfsd.vol. Beispiele für die Konfigurationsdateien von Server Modul und Native Client befinden sich im Anhang und werden im nächsten Kapitel genauer erläutert. Translators Ein interessantes Konzept von GlusterFS sind die translators, welche spezielle Funktionen von GlusterFS implementieren. Beispiele hierfür sind: IO Scheduling, Clustering, Stripping oder Replikation. Des weiteren können sie verwendet werden um Netzwerk ACLs definieren. Die Konfiguration der translators wird über eine Textdatei realisiert. In dieser wird auch die Reihenfolge definiert, in welcher diese aufeinander aufsetzen. zu In Abbildung 5 wird dargestellt, wie sich verschiedene translators aneinanderreihen und auf dem Volume auf dem Server verschiedene Funktionen hinzufügen. Die Darstellung entspricht auch der Konfiguration des Servers unseres Projektes. Die Konfigurationsdatei ist im Anhang dieses Access Control List

11 Dokuments zu finden. Abbildung 5: Translator 17 Weitere Translators sind auf der Homepage von GlusterFS aufgelistet. 18 Das zweite Beispiel im Anhang stellt die Konfiguration unseres GlusterFS Native Clients dar. Im ersten Teil werden die vorhanden Server Nodes bekannt gemacht. Hierfür sind die Blöcke volume remote(1 4) verantwortlich. Die nächsten Blöcke volume stripe1 und volume stripe2 legen fest, welche Nodes jeweils zu einem Stripe vereint werden sollen. Die beiden Stripes werden aufgrund des Abschnitts volume replicate nun schließlich noch untereinander repliziert. Der abschließende Block beschreib noch wie groß der Lese Cache auf dem GlusterFS Native Client ist. 17 Bild Quelle:

12 4 Versuchsreihe Nachdem wir unsere Systemumgebung konfiguriert und gestartet hatten, haben wir uns vorgenommen verschiedene Versuche mit dieser Umgebung durchzuführen. Dadurch konnten wir mehr über die Funktionsweise von GlusterFS erfahren und praktische Erkenntnisse sammeln. 4.1 Performance In Bezug auf Performance, stellte sich uns die Frage, ob durch GlusterFS Engpässe beseitigt werden können und wenn ja welche. Geht man von einem einzigen Fileserver mit Anschluss an ein 1000 Gbit/s Netzwerk und Festplatten neuerer Generation aus, so erreicht dieser etwa eine Übertragungsrate von 80 MB/s. Wie könnten Tests nun aussehen, um den versprochenen Performance Gewinn durch GlusterFS testen zu können? Im nachhinein betrachtet ist der beschriebene Versuchsaufbau nicht ausreichend, um die tatsächliche Leistungsfähigkeit der versprochene Skalierung von GlusterFS testen zu können. Rechner 3 drosselte mit seinem 100 Mbit/s Interface die Übertragungsgeschwindigkeit wie erwartet auf etwa 10 MB/s. Siehe Abbildung 6. Abbildung 6: Performance zwischen Rechner 1 und 3 Auch die Übertragungsgeschwindigkeit zwischen Rechner 1 und Rechner 2, beide verfügen über ein 1 Gbit/s Interface, war mit etwa 40 MB/s vorhersehbar. Warum? Weil die verwendeten Festplatten schreibend nicht mehr verarbeiten können und durch die Herausnahme von Rechner 3 das System seine GlusterFS Eigenschaften verloren hat. Siehe Abbildung 7. 12

13 Abbildung 7: Performance zwischen Rechner 1 und 2 Theoretisch hätten wir die selbe Anzahl an Maschinen nochmal benötigt, um anschließend mit drei PCs gleichzeitig auf eine Datei innerhalb von GlusterFS, ebenso bestehend aus drei vernetzten Computern, zuzugreifen. In diesem Fall hätten die Festplatten alle PCs mit jeweils maximaler Geschwindigkeit versorgt und somit das Limit eines 1 Gbit Switches (etwa 80 MB/s) überschritten. Somit hätte dann das Netzwerk einen Engpass dargestellt. Denkt man nun noch einen Schritt größer, etwa in der Dimension eines Datacenters, dann hätte wohl jeder Serverrack einen eigenen Switch und würde beispielsweise zwölf GlusterFS Server enthalten. In Summe kümmert sich also mehr als nur ein Switch um die Verteilung der Daten und so skalieren dann auch größere Storage Lösungen besser als ein einzelner dedizierter Fileserver mit 1 Gbit Anbindung. Die Konfiguration wurde hinsichtlich der IO Caches mit drei unterschiedlichen Werten getestet 64MB, 128MB und 512MB. In keinem der drei Testfälle kam es zu einschlägigen Veränderungen, so dass letztlich keinerlei Rückschluss auf diese Einstellung möglich war. Wir vermuten aber, dass sich die größe des Cache erst ab einer hohen Anzahl an Nodes und einem großen Gesamtvolumen auswirken kann. Logischerweise auch dann erst, wenn ein häufiger Zugriff auf die selben Datenblöcke erfolgt. 4.2 Single Point of Failure Bei GlusterFS handelt es sich um ein Dateisystem, welches viele Fehler kompensieren kann und aufgrund seiner Verteilung eine hohe Ausfallsicherheit aufweist. In unserer Konfiguration gibt es aber dennoch einen Single Point of Failure. In Abbildung 8 stellt der schwarze Pfad den Versuchsaufbau dar. Hier ist gut zu erkennen, dass der GlusterFS Native Client nur einmal in unserem Aufbau vorkommt. 13

14 Abbildung 8: Single Point of Failure im schwarzen Pfad Um das Szenario ausfallsicher zu machen, muss ein zweiter Native Client in den Versuch eingebaut werden. Dieser kann unabhänig vom ersten betrieben werden, da GlusterFS wie in Kapital 2.2 beschrieben, über kein Meta Daten Repository für die Dateien benötigt. 4.3 Replikation, Replikation, Replikation Gerade dann, wenn man auf Consumer Hardware vertraut, sollte man schon im Voraus von einem größeren Verschleiss der Geräte ausgehen. Und im speziellen Fall eines verteilten Dateisystems, muss man eigentlich schon damit rechnen, dass dieser Fall eintritt und Festplatten innerhalb eines unbekannten Zeitfenster ausfallen werden. Nun ist es kein Geheimnis, dass Replikation die Verfügbarkeit von Daten erhöht und dieser Ansatz wird auch hier gewählt. In unserem in Kapitel 3.3 beschriebenen Setup wird zwar lediglich auf zwei Nodes repliziert, dies reicht aber aus um den GlusterFS Selbstheilungsprozess nach zu vollziehen. Kopiert man initial eine Datei auf das gemountete GlusterFS Volume, so lässt sich anhand der Netzwerkübertragung feststellen, dass die Datei simultan auf beide, als Replikate 14

15 angebene Server, übertragen wird. Die GlusterFS Dokumentation gibt an, dass das GlusterFS Server Modul, welches auf den Storage Nodes ausgeführt wird, einen write Befehl empfängt und diesen auf der Festplatte des Systems ausführt. Hierzu bedient es sich eines Two Phase Commit Modells. Der GlusterFS Native Client erhält einen Lockauf die Datei, schreibt eine Transaction Log, führt den Schreibvorgang aus und gibt die Datei letztlich wieder frei. GlusterFS bietet nicht nur für ruhende Daten eine Failover Lösung durch Replikation, sondern auch für Daten innerhalb einer Übertragung. Was bei hohen Zugriffszahlen weit aus wichtiger sein kann. GlusterFS liefert hierfür eine automatische Failover Funktion, welche gewährleistet, dass wenn eine Operation mit einem Node fehlschlägt, diese automatisch von einem Replikat nahtlos übernommen und zu Ende geführt wird. Wenn dieser Fall eintritt und man einen als Replikat definierten Node abschaltet, erhalten alle nachfolgenden Daten und die innerhalb der übernommenen Operation einen Tagwelcher kennzeichnet, dass auf diese Daten noch Operationen bezüglich der Replikation anstehen. Wenn der abgeschaltete Node anschließend ohne Daten wiederhergestellt und verfügbar gemacht wird, passiert zunächst nichts. Sobald aber eine simple touchoperation auf eine mit dem erwähnten Tag gekennzeichnete Datei aufgerufen wird, stellt der GlusterFS Native Client fest, dass noch Operationen für diese Datei anstehen und liest die Datei ein um sie im Anschluss auf den wiederhergestellten Node zu replizieren. Durch diesen Event erhält GlusterFS die benötigte Information über den nicht erreichbaren Node und prüft dessen Verfügbarkeit. Sollte der Node wiederhergestellt worden sein, beginnt GlusterFS diesen vollständig zu synchronisieren, um fortan wieder alle Daten simultan speichern zu können. 4.4 Dynamische Speichererweiterung Die dynamische Speichererweiterung war für uns einer der interessantesten Aspekte. In der heutigen Zeit der always on Generation verzeihen einem Nutzer keine Ausfallzeiten und im kommerziellen Bereich kann man sich diese schlicht gesagt auch einfach nicht leisten. Daher war es für uns spannend herauszufinden, ob man mit GlusterFS die Speicherkapazität seines Systemes on the fly während dem laufenden Betrieb einfach erhöhen kann, ohne dass Ausfallzeiten entstehen. Bevor wir uns selbst daran gemacht haben zu testen, haben wir zunächst einmal das Internet durchforstet um zu sehen, ob es diesbezüglich Erfahrungsberichte oder best 15

16 practises gibt. Dabei sind wir auf völlig unterschiedliche Kommentare gestoßen und waren etwas verwirrt über die breit auseinanderklaffenden Meinungen. Im Laufe der Zeit sind wir dann darauf aufmerksam geworden, dass die unterschiedlichen Kommentare auf unterschiedliche GlusterFS Versionen zurück zu führen waren. Seit der Version 3.1 hält das Produkt was es verspricht und ist wirklich sehr dynamisch. Während dem laufenden Betrieb lassen sich einem System Nodes hinzufügen, ohne dass der GlusterFS Dienst neu gestartet, oder das Volume neu gemountet werden muss. Nachdem der Node mit dem folgenden Befehl hinzugefügt wurde ist der zusätzliche Speicherplatz sofort verfügbar: # gluster volume add brick [VOLUME NAME] [NODE NAME]:[PFAD] Soll zusätzlich ein rebalancing durchgeführt werden, damit die Nodes alle gleichermaßen gefüllt sind, so kann dies zusätzlich noch angestoßen werden: # gluster volume rebalance [VOLUME NAME] start Einmal angestoßen werden nun die Dateien so umgelagert, dass alle Nodes den selben Auslastungsgrad haben. Während des Balancings kann man sich den Status der Vorgangs anzeigen lassen. Solange der Vorgang noch nicht abgeschlossen ist, wird man über den Fortschritt und den aktuellen Stand informiert. Ist der Vorgang abgeschlossen so liefert der Befehl diese Information zurück und informiert darüber wie viele Files verschoben wurden und die Gesamtgröße der verschobenen Dateien. # gluster volume rebalance [VOLUME NAME] status # rebalance completed: rebalanced 123 files of size (total files scanned 456) Diese Flexibilität war leider noch nicht immer in GlusterFS zu finden. In Versionen vor 3.1 war das Hinzufügen einer Node etwas umständlicher. Hier musste ein neuer Node in die Konfiguration mit aufgenommen, der GlusterFS Dienst neu gestartet und ein remounting durchgeführt werden. Dies führt also zu kurzzeitiger Nicht Verfügbarkeit des Systems. Diese Tatsache könnte für viele Interessenten ein Grund gewesen sein GlusterFS nicht einzusetzen und bedurfte dringender Korrektur, was inzwischen auch erfolgreich umgesetzt wurde. 16

17 Fazit An dieser Stelle wollen wir nun noch einmal zusammenfassen was uns an GlusterFS besonders positiv und was eher negativ aufgefallen ist. Das Fazit resultiert aus den Ergebnissen und Erfahrungen, welche wir während der Testphasen gesammelt haben. Werfen wir zunächst einen Blick auf die positiven Aspekte der Technologie. Als erster Punkt ist hier die Einfachheit aufzuführen, mit der dank GlusterFS ein Daten Cluster aufgesetzt werden kann. Die Konfiguration in einem überschaubaren Rahmen, so wie in unserem Projekt, ging recht zügig von der Hand. Allgemein ist die Konfigurationsdatei trivial aufgebaut und somit auch mit etwas zeitlichem Abstand, trotzdem noch sehr gut leserlich und verständlich. Replikations und Striping Konzepte sind ohne großen Aufwand sehr schnell integriert und einsatzbereit. Unserer Meinung nach ist es somit nicht sehr schwierig einen recht moderaten Cluster in kurzer Zeit zu konfigurieren und zu betreiben entsprechende Server beziehungsweise Linux Kenntnisse vorausgesetzt. In der Konfiguration lassen sich jedoch nicht nur architektonische Aspekte abbilden. Über dort zu findende Parameter wie Caching, Locking und Anzahl verwendeter IO Threads kann die Performance des Systems weiter optimiert und entsprechend seiner Bedürfnisse angepasst werden. Des Weiteren ist positiv hervorzuheben, dass GlusterFS auf FUSE setzt und somit nicht im priviligierten Modus ausgeführt werden muss. Da dürfte dem einen oder anderen Administrator ein Stein vom Herzen fallen. Was die Performance und die Stabilität betrifft, können wir mit unserem sehr kleinen Setup leider keine für alle Szenarien gültigen Aussagen treffen. Bei uns lief der GlusterFS Cluster jedoch stets sehr stabil und war, wenn man die verwendete Hardware berücksichtigt, auch von der Performance her überzeugend. Zumindest hatte die für unser Setup benötigte Replikation keine negativen Auswirkungen. Anfangs sahen wir den größten Schwachpunkt in der Flexibilität des Systems. Hatten wir von einem verteilten und skalierenden System ein sehr flexibles Verhalten erwarten, schien jedoch genau gegenteiliges der Fall. Trotz der lobend hervorgehobenen Einfachheit der Konfiguration, war es doch genau diese, die dem System seine Flexibilität nahm. Jeder Node der in den Cluster aufgenommen werden sollte musste zunächst für sich konfiguriert (Server Konfig) und anschließend in die Gesamtkonfiguration aufgenommen werden. Das es 17

18 für diese Konfigurationsaufgaben scheinbar keine Master Funktion an zentraler Stelle geben sollte, war für uns völlig unverständlich. Wie bereits im letzten Kapitel angesprochen, hatten wir dann jedoch glücklich festgestellt, dass in der von uns eingesetzten Version 3.2 dieser Mangel bereits beseitigt war. Aus einem System das scheinbar lieber nicht angefasst werden sollte im Hinblick auf das Hinzufügen neuer Nodes wurde dank diesem Update ein einfach zu skalierendes System. Abschließend wollen wir noch einmal auf das erste Kapitel zurück Blicken. Dort hatten wir folgende These aufgestellt: Mit GlusterFS ist es mit geringem Aufwand möglich, anstelle teurer Enterprise Hardware einfache Consumer Hardware zu verwenden und dennoch eine hoch skalierbare Storage Lösung zu betreiben. Nachdem wir uns nun einige Zeit mit GlusterFS beschäftigt haben sind wir uns einig, dass es mit dieser Technologie durchaus möglich ist einen performanten und einfach skalierenden Cluster aufzusetzten. GlusterFS fühlt sich besonders dann wohl, wenn es über Nodes hinweg betrieben wird, die über Infiniband miteinander vernetzt sind, so dass das Netzwerk nicht zum Flaschenhals wird. Die Hypothese trifft zwar keine Aussage über die Ausfallsicherheit des Systems, eine solche Gegenüberstellung ist jedoch auch nicht notwendig. Consumer Hardware ist natürlich weniger langlebig als dedizierte Server Hardware die für dauerhaft hohe Last konzipiert ist, jedoch ist ein Cluster auf Basis von GlusterFS durch Replikation so ausfallsicher, dass ein Austauschen ganzer Nodes ermöglicht wird. Als Ausblick und damit am Ende dieser Ausarbeitung angekommen, wäre es mit den nun gewonnenen Erkenntnissen ein weiteres spannendes Unterfangen, mit Hilfe der Amazon 19 EC2, ein größeres Setup mit beispielsweise 42 Nodes zu konfigurieren und einige der Test Szenarien damit erneut zu wiederholen. 19 https://aws.amazon.com/solution providers/isv/gluster 18

19 Anhang Tabellen Notebook Name VM IP VM IP Host Dell E6400 Node Dell XPS Node MacBook Pro Node MacBook Pro Node Tabelle 2: VM Netzwerkkonfiguration Konfigurationen Beispiel Server Pfad: /etc/glusterfs/glusterfsd.vol volume posix type storage/posix option directory /data/export end volume volume locks type features/locks subvolumes posix end volume volume brick type performance/io threads option thread count 8 subvolumes locks end volume volume server type protocol/server 19

20 option transport type tcp option auth.addr.brick.allow * subvolumes brick end volume Beispiel Native Client Pfad: /etc/glusterfs/glusterfs.vol volume remote1 type protocol/client option transport type tcp option remote host option remote subvolume brick end volume volume remote(2 4) type protocol/client option transport type tcp option remote host (2 4) option remote subvolume brick end volume volume stripe1 type cluster/stripe subvolumes remote1 remote2 end volume volume stripe2 type cluster/stripe subvolumes remote3 remote4 end volume volume replicate type cluster/replicate subvolumes stripe1 stripe2 end volume volume cache type performance/io cache 20

21 option cache size 512MB subvolumes replicate end volume 21

PVFS (Parallel Virtual File System)

PVFS (Parallel Virtual File System) Management grosser Datenmengen PVFS (Parallel Virtual File System) Thorsten Schütt thorsten.schuett@zib.de Management grosser Datenmengen p.1/?? Inhalt Einführung in verteilte Dateisysteme Architektur

Mehr

VirtualBox und OSL Storage Cluster

VirtualBox und OSL Storage Cluster VirtualBox und OSL Storage Cluster A Cluster in a Box A Box in a Cluster Christian Schmidt Systemingenieur VirtualBox und OSL Storage Cluster VirtualBox x86 und AMD/Intel64 Virtualisierung Frei verfügbar

Mehr

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick:

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Red Hat Storage Server Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Offene Software Lösung für Storage Ansprache über einen globalen Namensraum Betrachtet Storage als einen virtualisierten

Mehr

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension

Mehr

RAC auf Sun Cluster 3.0

RAC auf Sun Cluster 3.0 RAC auf Sun Cluster 3.0 Schlüsselworte RAC, OPS, Sun Cluster, Performance, Availability Zusammenfassung Oracle hat mit dem Real Application Cluster (RAC) aus einer Hochverfügbarkeitslösung eine Höchstverfügbarkeitslösung

Mehr

Hyper-V Grundlagen der Virtualisierung

Hyper-V Grundlagen der Virtualisierung Grundlagen der Virtualisierung Was ist Virtualisierung? Eine Software-Technik, die mehrere Betriebssysteme gleichzeitig auf dem Rechner unabhängig voneinander betreibt. Eine Software-Technik, die Software

Mehr

Hochverfügbarkeit mit Windows Server vnext. Carsten Rachfahl Microsoft Hyper-V MVP

Hochverfügbarkeit mit Windows Server vnext. Carsten Rachfahl Microsoft Hyper-V MVP Hochverfügbarkeit mit Windows Server vnext Carsten Rachfahl Microsoft Hyper-V MVP Carsten Rachfahl www.hyper-v-server.de Roling Cluster Upgrade Herausforderung: Update eines Failover Clusters ohne Downtime

Mehr

Neues in Hyper-V Version 2

Neues in Hyper-V Version 2 Michael Korp Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/mkorp Neues in Hyper-V Version 2 - Virtualisieren auf die moderne Art - Windows Server 2008 R2 Hyper-V Robust Basis:

Mehr

PROFI UND NUTANIX. Portfolioerweiterung im Software Defined Data Center

PROFI UND NUTANIX. Portfolioerweiterung im Software Defined Data Center PROFI UND NUTANIX Portfolioerweiterung im Software Defined Data Center IDC geht davon aus, dass Software-basierter Speicher letztendlich eine wichtige Rolle in jedem Data Center spielen wird entweder als

Mehr

XEN Performance. Projektpraktikum Informatik. Arne Klein 2008-02-26. Arne Klein () XEN Performance 2008-02-26 1 / 25

XEN Performance. Projektpraktikum Informatik. Arne Klein 2008-02-26. Arne Klein () XEN Performance 2008-02-26 1 / 25 XEN Performance Projektpraktikum Informatik Arne Klein 2008-02-26 Arne Klein () XEN Performance 2008-02-26 1 / 25 1 Virtualisierung mit XEN 2 Performance von XEN Allgemeines Netzwerk-Performance IO-Performance

Mehr

KURZANLEITUNG CLOUD BLOCK STORAGE

KURZANLEITUNG CLOUD BLOCK STORAGE KURZANLEITUNG CLOUD BLOCK STORAGE Version 1.12 01.07.2014 SEITE _ 2 INHALTSVERZEICHNIS 1. Einleitung......Seite 03 2. Anlegen eines dauerhaften Block Storage...Seite 04 3. Hinzufügen von Block Storage

Mehr

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2 Seminar Cloud Data Management WS09/10 Tabelle1 Tabelle2 1 Einführung DBMS in der Cloud Vergleich verschiedener DBMS Beispiele Microsoft Azure Amazon RDS Amazon EC2 Relational Databases AMIs Was gibt es

Mehr

2 Virtualisierung mit Hyper-V

2 Virtualisierung mit Hyper-V Virtualisierung mit Hyper-V 2 Virtualisierung mit Hyper-V 2.1 Übersicht: Virtualisierungstechnologien von Microsoft Virtualisierung bezieht sich nicht nur auf Hardware-Virtualisierung, wie folgende Darstellung

Mehr

RAID. Name: Artur Neumann

RAID. Name: Artur Neumann Name: Inhaltsverzeichnis 1 Was ist RAID 3 1.1 RAID-Level... 3 2 Wozu RAID 3 3 Wie werden RAID Gruppen verwaltet 3 3.1 Software RAID... 3 3.2 Hardware RAID... 4 4 Die Verschiedenen RAID-Level 4 4.1 RAID

Mehr

Aufbau von Cloud-Infrastrukturen mit Eucalyptus

Aufbau von Cloud-Infrastrukturen mit Eucalyptus Michael Stapelberg Cloud-Computing Seminar Universität Heidelberg SS2009 1/34 Aufbau von Cloud-Infrastrukturen mit Eucalyptus Michael Stapelberg Universität Heidelberg Stapelberg@stud.uni-heidelberg.de

Mehr

Cloud OS. eine konsistente Plattform. Private Cloud. Public Cloud. Service Provider

Cloud OS. eine konsistente Plattform. Private Cloud. Public Cloud. Service Provider Cloud OS Private Cloud Public Cloud eine konsistente Plattform Service Provider Trends 2 Das Cloud OS unterstützt jedes Endgerät überall zugeschnitten auf den Anwender ermöglicht zentrale Verwaltung gewährt

Mehr

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar!

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar! Clouds Wolkig bis Heiter Erwartungen der Nutzer Er ist verwöhnt! Verfügbarkeit Viele Anwendungen Intuitive Interfaces Hohe Leistung Er ist nicht dankbar! Mehr! Mehr! Mehr! Moore 1 Erwartungen der Entwickler

Mehr

Infrastrukturanalyse Ihr Weg aus dem Datenstau

Infrastrukturanalyse Ihr Weg aus dem Datenstau Waltenhofen * Düsseldorf * Wiesbaden Infrastrukturanalyse Ihr Weg aus dem Datenstau SCALTEL Webinar am 20. Februar 2014 um 16:00 Uhr Unsere Referenten Kurze Vorstellung Stefan Jörg PreSales & Business

Mehr

Top Neuerungen in Windows Server 2012 R2

Top Neuerungen in Windows Server 2012 R2 Top Neuerungen in Windows Server 2012 R2 Windows Server 2012 R2 bietet herausragende technische Neuerungen für unterschiedlichste Einsatzbereiche des Windows Server Systems. Außerdem werden viele der mit

Mehr

Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung

Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung Fritz Günther 17.03.2014 Folie 1 Agenda Was ist Virtualisierung Server- / Clientvirtualisierung

Mehr

Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT

Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT Folie 1 VDE-Symposium 2013 BV Thüringen und Dresden Virtualisierung von Leittechnikkomponenten Andreas Gorbauch PSIEnergie-EE Folie

Mehr

MVB3. Einrichten eines Servers für MVB3 ab Version 3.5. Admin-Dokumentation. Inhalt V3.05.001

MVB3. Einrichten eines Servers für MVB3 ab Version 3.5. Admin-Dokumentation. Inhalt V3.05.001 V3.05.001 MVB3 Admin-Dokumentation Einrichten eines Servers für MVB3 ab Version 3.5 Inhalt Organisatorische Voraussetzungen... 1 Technische Voraussetzungen... 1 Konfiguration des Servers... 1 1. Komponenten

Mehr

Hyper-V Server 2008 R2

Hyper-V Server 2008 R2 Hyper-V Server 2008 R2 1 Einrichtung und Installation des Hyper-V-Servers 1.1 Download und Installation 4 1.2 Die Administration auf dem Client 9 1.3 Eine VM aufsetzen 16 1.4 Weiterführende Hinweise 22

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

Hochleistungs-Disk-I/O

Hochleistungs-Disk-I/O Hochleistungs-Disk-I/O mit Lustre, dcache und AFS eine vergleichende Betrachtung Stephan Wiesand DESY DV 33. Treffen des ZKI AK Supercomputing Hamburg, 2010-03-04 Computing am DESY Standort Zeuthen Batch

Mehr

MailStore Service Provider Edition (SPE)

MailStore Service Provider Edition (SPE) MailStore Solutions MailStore Service Provider Edition (SPE) E-Mail-Archivierung für Service Provider Mit Hilfe der MailStore Service Provider Edition können Sie Ihren Kunden moderne E-Mail-Archivierung

Mehr

Hochverfügbare Virtualisierung mit Open Source

Hochverfügbare Virtualisierung mit Open Source Hochverfügbare Virtualisierung mit Open Source Gliederung DRBD Ganeti Libvirt Virtualisierung und Hochverfügbarkeit Hochverfügbarkeit von besonderer Bedeutung Defekt an einem Server => Ausfall vieler VMs

Mehr

High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO

High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO Anastasios Stomas SFI Technology Services AG 12. März 2003 anastasios.stomas@sfi.ch Seite 1 Hintergrund INHALT Cluster-

Mehr

CloneManager Für Windows und Linux

CloneManager Für Windows und Linux bietet ein leicht zu bedienendes, automatisches Verfahren zum Klonen und Migrieren zwischen und innerhalb von physischen oder virtuellen Maschinen oder in Cloud- Umgebungen. ist eine Lösung für die Live-Migrationen

Mehr

Virtual Elastic Services

Virtual Elastic Services Überblick Inhalt dieses Vortrages Virtualisierung Seminar zum Schwerpunkt Systemtechnik von 10. März 2007 Überblick Inhalt dieses Vortrages Virtualisierung.: Überblick :. Ausblick auf Virtualisierungskonzepte

Mehr

Voraussetzungen für jeden verwalteten Rechner

Voraussetzungen für jeden verwalteten Rechner Kaseya 2 (v6.1) Systemvoraussetzungen Voraussetzungen für jeden verwalteten Rechner Kaseya Agent 333 MHz CPU oder höher 128 MB RAM 30 MB freier Festplattenspeicher Netzwerkkarte oder Modem Microsoft Windows

Mehr

Andrea Held. Virtualisierung im Oracle-Umfeld Virtualisierungslayer Voraussetzungen Schnittstellen Workload Management Grid Control

Andrea Held. Virtualisierung im Oracle-Umfeld Virtualisierungslayer Voraussetzungen Schnittstellen Workload Management Grid Control Andrea Held Virtualisierung im Oracle-Umfeld Virtualisierungslayer Voraussetzungen Schnittstellen Workload Management Grid Control 1 Einzelne Server ausgelegt auf Lastspitzen Niedrige durchschnittliche

Mehr

Univention Corporate Client. Quickstart Guide für Univention Corporate Client

Univention Corporate Client. Quickstart Guide für Univention Corporate Client Univention Corporate Client Quickstart Guide für Univention Corporate Client 2 Inhaltsverzeichnis 1. Einleitung... 4 2. Voraussetzungen... 5 3. Installation des UCS-Systems... 6 4. Inbetriebnahme des Thin

Mehr

Oracle Automatic Storage Management (ASM) Best Practices

Oracle Automatic Storage Management (ASM) Best Practices Oracle Automatic Storage Management (ASM) Best Practices Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 Agenda ASM Funktionalität und Architektur Storage Management

Mehr

Windows Server 2012 R2

Windows Server 2012 R2 Windows Server 2012 R2 Eine Übersicht Raúl B. Heiduk (rh@pobox.com) www.digicomp.ch 1 Inhalt der Präsentation Die wichtigsten Neuerungen Active Directory PowerShell 4.0 Hyper-V Demos Fragen und Antworten

Mehr

Hochschule Darmstadt - Fachbereich Informatik - Fachschaft des Fachbereiches

Hochschule Darmstadt - Fachbereich Informatik - Fachschaft des Fachbereiches Hochschule Darmstadt - Fachbereich Informatik - Fachschaft des Fachbereiches Verwendung der bereitgestellten Virtuellen Maschinen»Einrichten einer Virtuellen Maschine mittels VirtualBox sowie Zugriff auf

Mehr

init.at informationstechnologie GmbH Tannhäuserplatz 2/5.OG 1150 Wien Austria

init.at informationstechnologie GmbH Tannhäuserplatz 2/5.OG 1150 Wien Austria init.at informationstechnologie GmbH Tannhäuserplatz 2/5.OG 1150 Wien Austria Seite 2 von 10 1 Inhaltsverzeichnis 2 Warum CORVUS by init.at... 3 3 Ihre Vorteile durch CORVUS... 3 4 CORVUS Features... 4

Mehr

Oracle EngineeredSystems

Oracle EngineeredSystems Oracle EngineeredSystems Überblick was es alles gibt Themenübersicht Überblick über die Engineered Systems von Oracle Was gibt es und was ist der Einsatzzweck? Wann machen diese Systeme Sinn? Limitationen

Mehr

Thema: Systemsoftware

Thema: Systemsoftware Teil II 25.02.05 10 Uhr Thema: Systemsoftware»Inhalt» Servermanagement auf BladeEbene» Features der ManagementSoftware» Eskalationsmanagement» Einrichten des Betriebssystems» Steuerung und Überwachung»

Mehr

Dateisysteme und Datenverwaltung in der Cloud

Dateisysteme und Datenverwaltung in der Cloud Dateisysteme und Datenverwaltung in der Cloud Sebastian Fischer Master-Seminar Cloud Computing - WS 2013/14 Institut für Telematik, Universität zu Lübeck Dateisysteme und Datenverwaltung in der Cloud 1

Mehr

Hochverfügbare Linux Cluster mit OSL Storage Cluster 4.0 und RSIO. 11. OSL Technologietage Berlin 24./25. September 2013

Hochverfügbare Linux Cluster mit OSL Storage Cluster 4.0 und RSIO. 11. OSL Technologietage Berlin 24./25. September 2013 Hochverfügbare Linux Cluster mit OSL Storage Cluster 4.0 und RSIO 11. OSL Technologietage Berlin 24./25. September 2013 Prinzipielles Clusterdesign Aufbau eines Linux HA-Clusters Was brauche ich für einen

Mehr

Shibboleth Clustering und Loadbalancing

Shibboleth Clustering und Loadbalancing Shibboleth Clustering und Loadbalancing STEINBUCH CENTRE FOR COMPUTING - SCC KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Computercluster

Mehr

4 Planung von Anwendungsund

4 Planung von Anwendungsund Einführung 4 Planung von Anwendungsund Datenbereitstellung Prüfungsanforderungen von Microsoft: Planning Application and Data Provisioning o Provision applications o Provision data Lernziele: Anwendungen

Mehr

ORACLE Database Appliance X4-2. Bernd Löschner 20.06.2014

ORACLE Database Appliance X4-2. Bernd Löschner 20.06.2014 ORACLE Database Appliance X4-2 Bernd Löschner 20.06.2014 Einfach Zuverlässig Bezahlbar Technische Übersicht Oracle Database Appliance 2 Hardware To Kill... Costs! Einfach. 3 Hardware To Kill... Costs!

Mehr

Managed Cloud Services

Managed Cloud Services Managed Cloud Services Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Cloud Services

Mehr

Die in diesem Dokument aufgelisteten Anforderungen an das Betriebssystem schließen die aktuellen Patches und Servivepacks ein.

Die in diesem Dokument aufgelisteten Anforderungen an das Betriebssystem schließen die aktuellen Patches und Servivepacks ein. Systemanforderungen Die unten angeführten Systemanforderungen für Quark Publishing Platform sind grundlegende Anforderungen, Ihre Benutzerzahl, Asset-Anzahl und Anzahl der Asset-Versionen beeinflussen

Mehr

Version 2.0.1 Deutsch 28.10.2014

Version 2.0.1 Deutsch 28.10.2014 Version.0. Deutsch 8.0.04 In diesem HOWTO wird beschrieben wie Sie die Performance der IAC-BOX und damit auch die Ihres Netzwerks optimieren können. Inhaltsverzeichnis.... Hinweise.... Hardware... 3..

Mehr

DELL On-Demand Desktop Streaming-Referenzarchitektur (ODDS) (Bedarfsbasierte Desktop- Streaming-Referenzarchitektur)

DELL On-Demand Desktop Streaming-Referenzarchitektur (ODDS) (Bedarfsbasierte Desktop- Streaming-Referenzarchitektur) DELL On-Demand Desktop Streaming-Referenzarchitektur (ODDS) (Bedarfsbasierte Desktop- Streaming-Referenzarchitektur) Ein technisches White Paper von Dell ( Dell ). Mohammed Khan Kailas Jawadekar DIESES

Mehr

MailUtilities: Remote Deployment - Einführung

MailUtilities: Remote Deployment - Einführung MailUtilities: Remote Deployment - Einführung Zielsetzung Die Aufgabe von Remote Deployment adressiert zwei Szenarien: 1. Konfiguration der MailUtilities von einer Workstation aus, damit man das Control

Mehr

KURZANLEITUNG DUPLICITY MIT CLOUD OBJECT STORAGE

KURZANLEITUNG DUPLICITY MIT CLOUD OBJECT STORAGE KURZANLEITUNG DUPLICITY MIT CLOUD OBJECT STORAGE Version 1.12 01.07.2014 SEITE _ 2 INHALTSVERZEICHNIS 1. Einleitung...Seite 03 2. Einrichtung des Systems...Seite 04 3. Erzeugen eines Backup-Skripts...Seite

Mehr

[Geben Sie Text ein] ISCSI Targets mit der Software FreeNAS einrichten

[Geben Sie Text ein] ISCSI Targets mit der Software FreeNAS einrichten [Geben Sie Text ein] ISCSI Targets mit der Software FreeNAS einrichten ISCSI Targets mit der Software FreeNAS einrichten Inhalt FreeNAS Server Vorbereitung... 2 Virtuelle Maschine einrichten... 3 FreeNAS

Mehr

IT Storage Cluster Lösung

IT Storage Cluster Lösung @ EDV - Solution IT Storage Cluster Lösung Leistbar, Hochverfügbar, erprobtes System, Hersteller unabhängig @ EDV - Solution Kontakt Tel.: +43 (0)7612 / 62208-0 Fax: +43 (0)7612 / 62208-15 4810 Gmunden

Mehr

The Future of Storage JBOD, Storage Spaces, SMB 3.0 and more

The Future of Storage JBOD, Storage Spaces, SMB 3.0 and more The Future of Storage JBOD, Storage Spaces, SMB 3.0 and more Carsten Rachfahl MVP Virtual Machine Rachfahl IT-Solutions GmbH & Co. KG www.hyper-v-server.de Philipp Witschi Partner itnetx gmbh witschi@itnetx.ch

Mehr

Hyper-V Windows 8 Server Failover Clustering mit Live Migration - PartI

Hyper-V Windows 8 Server Failover Clustering mit Live Migration - PartI Hyper-V Windows 8 Server Failover Clustering mit Live Migration - PartI Part I beschreibt die Einrichtung des Windows Sever 8 Cluster mit Live Migration Part II beschreibt die Integration in SCVMM 2012

Mehr

SPARC LDom Performance optimieren

SPARC LDom Performance optimieren SPARC LDom Performance optimieren Marcel Hofstetter hofstetter@jomasoft.ch http://www.jomasoftmarcel.blogspot.ch Mitgründer, Geschäftsführer, Enterprise Consultant JomaSoft GmbH 1 Inhalt Wer ist JomaSoft?

Mehr

Administration von großen Ubuntu Linux Desktop Umgebungen mit Univention Corporate Client

Administration von großen Ubuntu Linux Desktop Umgebungen mit Univention Corporate Client Administration von großen Ubuntu Linux Desktop Umgebungen mit Univention Corporate Client Ubucon 2013, Heidelberg Erik Damrose Univention GmbH Agenda 1. Vorstellung von Univention

Mehr

Einführung in git. Ben Oswald. 27. April 2014. Im Rahmen der Vorlesung Entwicklung mobiler Anwendungen

Einführung in git. Ben Oswald. 27. April 2014. Im Rahmen der Vorlesung Entwicklung mobiler Anwendungen Einführung in git Im Rahmen der Vorlesung Entwicklung mobiler Anwendungen Ben Oswald 27. April 2014 Inhaltsverzeichnis 1 Einleitung 1 1.1 Was ist git?..................................... 1 1.2 Warum sollten

Mehr

Manfred Helber Microsoft Senior PreSales Consultant

Manfred Helber Microsoft Senior PreSales Consultant Manfred Helber Microsoft Senior PreSales Consultant Agenda ROK Vorteile Extended Live Migration Extended Hyper-V Replica Hyper-V Cluster Erweiterungen Storage Quality of Service Auswahl geeigneter Serversysteme

Mehr

AFS / OpenAFS. Bastian Steinert. Robert Schuppenies. Präsentiert von. Und

AFS / OpenAFS. Bastian Steinert. Robert Schuppenies. Präsentiert von. Und AFS / OpenAFS Präsentiert von Bastian Steinert Und obert Schuppenies Agenda AFS Verteilte Dateisysteme, allg. Aufbau Sicherheit und Zugriffsrechte Installation Demo Vergleich zu anderen DFs Diskussion

Mehr

SSDs als Cache für HDDs

SSDs als Cache für HDDs SSDs als Cache für HDDs CacheCade vs. BCache Dirk Geschke Linux User Group Erding 23. Oktober 2013 Dirk Geschke (LUG-Erding) SSD-Cache 23. Oktober 2013 1 / 71 Gliederung 1 Einleitunng 2 HDD Hard-Disk-Drive

Mehr

1 Hochverfügbarkeit. 1.1 Einführung. 1.2 Network Load Balancing (NLB) Quelle: Microsoft. Hochverfügbarkeit

1 Hochverfügbarkeit. 1.1 Einführung. 1.2 Network Load Balancing (NLB) Quelle: Microsoft. Hochverfügbarkeit 1 Hochverfügbarkeit Lernziele: Network Load Balancing (NLB) Failover-Servercluster Verwalten der Failover Cluster Rolle Arbeiten mit virtuellen Maschinen Prüfungsanforderungen von Microsoft: Configure

Mehr

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2.

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2. Cloud Computing Frank Hallas und Alexander Butiu Universität Erlangen Nürnberg, Lehrstuhl für Hardware/Software CoDesign Multicorearchitectures and Programming Seminar, Sommersemester 2013 1. Definition

Mehr

Einführung in Hadoop

Einführung in Hadoop Einführung in Hadoop Inhalt / Lern-Ziele Übersicht: Basis-Architektur von Hadoop Einführung in HDFS Einführung in MapReduce Ausblick: Hadoop Ökosystem Optimierungen Versionen 10.02.2012 Prof. Dr. Christian

Mehr

Sichere Daten mit OSL Storage Cluster

Sichere Daten mit OSL Storage Cluster Sichere Daten mit OSL Storage Cluster Alternative Konzepte für die Datensicherung und Katastrophenvorsorge Dipl.-Ing. Torsten Pfundt Gliederung Voraussetzungen für die Konzepte und Lösungen restorefreies

Mehr

Systemmonitoring unter Linux

Systemmonitoring unter Linux Systemmonitoring unter Linux CPU-Counter B.Sc. Wirtsch.-Inform. Arno Sagawe, 29.06.10 Department of Informatics Scientifics Computing 1 Gliederung Systemmonitoring Protokolle und Dateien für das Systemmonitoring

Mehr

2. Sie sind der Administrator Ihres Netzwerks, das den SBS 2011 Standard ausführt.

2. Sie sind der Administrator Ihres Netzwerks, das den SBS 2011 Standard ausführt. Arbeitsblätter Der Windows Small Business Server 2011 MCTS Trainer Vorbereitung zur MCTS Prüfung 70 169 Aufgaben Kapitel 1 1. Sie sind der Administrator Ihres Netzwerks, das den SBS 2011 Standard ausführt.

Mehr

Installationsanleitung Tivoli Storage Manager für Linux

Installationsanleitung Tivoli Storage Manager für Linux 11. März 2009, Version 1.0 Installationsanleitung für Linux Verwaltungsdirektion Informatikdienste Installationsanleitung für Linux Inhaltsverzeichnis...1 Installation... 1 Voraussetzungen...1 Ablauf der

Mehr

PROLAG WORLD 2.0 PRODUKTBESCHREIBUNG SERVERSYSTEM, CLUSTERSYSTEME FÜR PROLAG WORLD

PROLAG WORLD 2.0 PRODUKTBESCHREIBUNG SERVERSYSTEM, CLUSTERSYSTEME FÜR PROLAG WORLD PROLAG WORLD 2.0 PRODUKTBESCHREIBUNG SERVERSYSTEM, CLUSTERSYSTEME FÜR PROLAG WORLD Inhaltsverzeichnis 1. ZUSAMMENSTELLUNG VON SERVERN...3 1.1. ANFORDERUNGSPROFIL...3 1.2. 1.3. SERVER MODELLE...3 TECHNISCHE

Mehr

Virtualisierung auf Mac OS X. Mar3n Bokämper Max Riegel 30. November 2008

Virtualisierung auf Mac OS X. Mar3n Bokämper Max Riegel 30. November 2008 Virtualisierung auf Mac OS X Mar3n Bokämper Max Riegel 30. November 2008 Inhalt Virtualisierung Konfigura3on eines virtuellen Rechners Virtualisierungslösungen für OS X Apple Boot Camp, keine Virtualisierungslösung!

Mehr

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Seit Microsoft Exchange Server 2010 bieten sich für Unternehmen gleich zwei mögliche Szenarien an, um eine rechtskonforme Archivierung

Mehr

Virtual Machines. Peter Schmid 21.12.2007. Hochschule für Technik Zürich Master of Advanced Studies, Informatik

Virtual Machines. Peter Schmid 21.12.2007. Hochschule für Technik Zürich Master of Advanced Studies, Informatik Hochschule für Technik Zürich Master of Advanced Studies, Informatik 21.12.2007 Outline Einführung 1 Einführung Definition, Abgrenzung Geschichtlicher Rückblick 2 Virtualisierungstechnologien Terminologie

Mehr

The Unbreakable Database System

The Unbreakable Database System The Unbreakable Database System Real Application Cluster Unterföhring, 04.2005 M. Kühn 1 Comparisson HA - HA Ziele, DataGuard, HA Oracle, RAC RAC Features - Cache Fusion, TAF, Load Balancing RAC on Solaris

Mehr

Oracle Database 10g Die RAC Evolution

Oracle Database 10g Die RAC Evolution Oracle Database 10g Die RAC Evolution Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 RAC-Revolution, RAC-Evolution & Computing Oracle8i mit OPS Oracle9i Rel.

Mehr

Session Storage im Zend Server Cluster Manager

Session Storage im Zend Server Cluster Manager Session Storage im Zend Server Cluster Manager Jan Burkl System Engineer, Zend Technologies Agenda Einführung in Zend Server und ZSCM Überblick über PHP Sessions Zend Session Clustering Session Hochverfügbarkeit

Mehr

Speichermanagement auf Basis von Festplatten und optischer Jukebox

Speichermanagement auf Basis von Festplatten und optischer Jukebox Speichermanagement auf Basis von Festplatten und optischer Jukebox Horst Schellong DISC GmbH hschellong@disc-gmbh.com Company Profile Hersteller von optischen Libraries und Speichersystemen Gegründet 1994

Mehr

Implementierung von Dateisystemen

Implementierung von Dateisystemen Implementierung von Dateisystemen Teil 2 Prof. Dr. Margarita Esponda WS 2011/2012 44 Effizienz und Leistungssteigerung Festplatten sind eine wichtige Komponente in jedem Rechnersystem und gleichzeitig

Mehr

Netzwerksicherheit. Teil 5: Virtualisierung und Ausfallsicherheit. Martin Mauve, Björn Scheuermann und Philipp Hagemeister

Netzwerksicherheit. Teil 5: Virtualisierung und Ausfallsicherheit. Martin Mauve, Björn Scheuermann und Philipp Hagemeister Netzwerksicherheit Teil 5: Virtualisierung und Ausfallsicherheit Martin Mauve, Björn Scheuermann und Philipp Hagemeister Sommersemester 2015 Heinrich-Heine-Universität Düsseldorf Netzwerksicherheit Virtualisierung

Mehr

Von heiter bis wolkig Hosting am RRZE Physikalisch Virtuell in der Cloud. 2.2.2010 Daniel Götz daniel.goetz@rrze.uni-erlangen.de

Von heiter bis wolkig Hosting am RRZE Physikalisch Virtuell in der Cloud. 2.2.2010 Daniel Götz daniel.goetz@rrze.uni-erlangen.de Von heiter bis wolkig Hosting am RRZE Physikalisch Virtuell in der Cloud 2.2.2010 Daniel Götz daniel.goetz@rrze.uni-erlangen.de Übersicht Entwicklungen im (Web-)Hosting Physikalisches Hosting Shared Hosting

Mehr

OSL Simple RSIO. I/O Aufgabenstellungen einfach lösen

OSL Simple RSIO. I/O Aufgabenstellungen einfach lösen OSL Simple RSIO I/O Aufgabenstellungen einfach lösen OSL aktuell - Schöneiche, April 2015 Über OSL Das Prinzip: Sehen - Verstehen Verbessern! Konsequent systematisieren! Auf Dauer und erfolgreich nur mit

Mehr

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel Freiberuflicher Schwerpunkte: Unix, Oracle, Netzwerk 2005 1 Testaufbauten von Oracle 10g RAC auf preiswerter Hardware 2 3 Typisches Cluster System Clients Public Network Node A Node B Cluster Interconnect

Mehr

Ora Education GmbH. Lehrgang: Oracle Application Server 10g R2: Administration II

Ora Education GmbH. Lehrgang: Oracle Application Server 10g R2: Administration II Ora Education GmbH www.oraeducation.de info@oraeducation.de Lehrgang: Oracle Application Server 10g R2: Administration II Beschreibung: Die Teilnehmer lernen verschiedene Topologien des Oracle Application

Mehr

Achim Marx Mittwoch, 2. Oktober 2013 S&L Netzwerktechnik GmbH 1

Achim Marx Mittwoch, 2. Oktober 2013 S&L Netzwerktechnik GmbH 1 Achim Marx 1 Überblick SCDPM 2012 SP1 Was macht der Data Protection Manager? Systemanforderungen Neuerungen Editionen Lizenzierung SCDPM und VEEAM: Better Together 2 Was macht der Data Protection Manager?

Mehr

Kleine Speichersysteme ganz groß

Kleine Speichersysteme ganz groß Kleine Speichersysteme ganz groß Redundanz und Performance in Hardware RAID Systemen Wolfgang K. Bauer September 2010 Agenda Optimierung der RAID Performance Hardware-Redundanz richtig nutzen Effiziente

Mehr

XEN-basiertes Cluster mit iscsi-san

XEN-basiertes Cluster mit iscsi-san XEN-basiertes Cluster mit iscsi-san UNIX Stammtisch Sachsen 28.10.2008 thomas.gross@teegee.de Cluster? hier: kein Cluster für paralleles Rechnen! mindestens 2 Clusterserver ein gemeinsamer Speicher (SAN)

Mehr

Magento goes into the cloud Cloud Computing für Magento. Referent: Boris Lokschin, CEO

Magento goes into the cloud Cloud Computing für Magento. Referent: Boris Lokschin, CEO Magento goes into the cloud Cloud Computing für Magento Referent: Boris Lokschin, CEO Agenda Über symmetrics Unsere Schwerpunkte Cloud Computing Hype oder Realität? Warum Cloud Computing? Warum Cloud für

Mehr

CosmosMonitoring Server von CosmosNet

CosmosMonitoring Server von CosmosNet Network Services without limitation. Cosmos Server von CosmosNet Cosmos Cosmos Server [CMS] Der Cosmos Server, erhältlich als zertifizierte Hardware Box, virtuelle Maschine oder Softwarelösung, ist eine

Mehr

ORACLE Database Appliance X4-2. Bernd Löschner 11.11.2014

ORACLE Database Appliance X4-2. Bernd Löschner 11.11.2014 ORACLE Database Appliance X4-2 Bernd Löschner 11.11.2014 Einfach Zuverlässig Bezahlbar Technische Übersicht Oracle Database Appliance 2 Hardware To Kill... Costs! EINFACH Oracle Database Appliance 3 Hardware

Mehr

Perzentile mit Hadoop ermitteln

Perzentile mit Hadoop ermitteln Perzentile mit Hadoop ermitteln Ausgangspunkt Ziel dieses Projektes war, einen Hadoop Job zu entwickeln, der mit Hilfe gegebener Parameter Simulationen durchführt und aus den Ergebnissen die Perzentile

Mehr

Installationsanleitung für Haufe Advolux Kanzleisoftware ab Version 2.5 (Linux)

Installationsanleitung für Haufe Advolux Kanzleisoftware ab Version 2.5 (Linux) Installationsanleitung für Haufe Advolux Kanzleisoftware ab Version 2.5 (Linux) Verfasser : Advolux GmbH, AÖ Letze Änderung : 20.04.2012 Version : v2 1 Inhaltsverzeichnis 1. Hardware-Voraussetzungen...

Mehr

Ceph. Distributed Storage Julian mino Klinck GPN15-05.06.2015

Ceph. Distributed Storage Julian mino Klinck GPN15-05.06.2015 Distributed Storage Julian mino Klinck GPN15-05.06.2015 Julian mino! Interessen: Netzwerke # Karlsruhe Hardware $ gpn15@lab10.de Cocktails " twitter.com/julianklinck Hacking Musik- und Lichttechnik 2 Julian

Mehr

LimTec Office Cloud. 28.07.2011 LimTec www.limtec.de

LimTec Office Cloud. 28.07.2011 LimTec www.limtec.de LimTec Office Cloud 1 Überblick Ihre Ausgangssituation Ihre Risiken und Kostenfaktoren Die LimTec Office Cloud Idee Cluster und Cloud Office Cloud Komponenten Office Cloud Konfiguration Rückblick Vorteile

Mehr

Skalierbarkeit von Serversystemen Was tun, damit das technische Korsett mein Business nicht einschnürt?

Skalierbarkeit von Serversystemen Was tun, damit das technische Korsett mein Business nicht einschnürt? Skalierbarkeit von Serversystemen Was tun, damit das technische Korsett mein Business nicht einschnürt? Dipl.-Inform. Thomas Witzenrath 21.01.2014 Tralios IT GmbH www.tralios.de Über mich Dipl.-Inform.

Mehr

Lizenzierung von Windows Server 2012

Lizenzierung von Windows Server 2012 Lizenzierung von Windows Server 2012 Das Lizenzmodell von Windows Server 2012 Datacenter und Standard besteht aus zwei Komponenten: Prozessorlizenzen zur Lizenzierung der Serversoftware und CALs zur Lizenzierung

Mehr

Donato Quaresima Matthias Hirsch

Donato Quaresima Matthias Hirsch Die Spezialisten. Meister auf Ihrem Gebiet..Alles so schön bunt hier? Donato Quaresima Matthias Hirsch Microsoft Windows 2012 ein Überblick Inhalt Allgemein Editionen / Lizenzierung Neuerungen allgemein

Mehr

Aufbau eigener Cloud-Infrastrukturen mit Eucalyptus Hochschule Mannheim

Aufbau eigener Cloud-Infrastrukturen mit Eucalyptus Hochschule Mannheim Andreas Ries Cloud-Computing Seminar Hochschule Mannheim WS0910 1/26 Aufbau eigener Cloud-Infrastrukturen mit Eucalyptus Hochschule Mannheim Andreas Ries Fakultät für Informatik Hochschule Mannheim ries.andreas@web.de

Mehr

NOCTUA by init.at DAS FLEXIBLE MONITORING WEBFRONTEND

NOCTUA by init.at DAS FLEXIBLE MONITORING WEBFRONTEND NOCTUA by init.at DAS FLEXIBLE MONITORING WEBFRONTEND init.at informationstechnologie GmbH - Tannhäuserplatz 2 - A-1150 Wien - www.init.at Dieses Dokument und alle Teile von ihm bilden ein geistiges Eigentum

Mehr

GlusterFS Storage für die Cloud. Thomas Halinka CustomSol

GlusterFS Storage für die Cloud. Thomas Halinka CustomSol GlusterFS Storage für die Cloud Thomas Halinka CustomSol 2011 CustomSol 1 GlusterFS Thomas Halinka OSDC 2011 06.04.2011 Agenda Warm-Up Cloud Kurze Geschichte NFS DRBD (daisy-chain) SAN GlusterFS 2011 CustomSol

Mehr

Isilon Solutions + OneFS

Isilon Solutions + OneFS Isilon Solutions + OneFS Anne-Victoria Meyer Universität Hamburg Proseminar»Ein-/Ausgabe Stand der Wissenschaft«, 2013 Anne-Victoria Meyer Isilon Solutions + OneFS 1 / 25 Inhalt 1. Einleitung 2. Hardware

Mehr

3. Was müssen Sie tun, um von einem Windows 7 Client die Benutzereinstellungen und die Einstellungen einer bestimmten Anwendung zu exportieren?

3. Was müssen Sie tun, um von einem Windows 7 Client die Benutzereinstellungen und die Einstellungen einer bestimmten Anwendung zu exportieren? Arbeitsblätter Der Windows 7 MCTS Trainer Vorbereitung zur MCTS Prüfung 70 680 Aufgaben Kapitel 1 1. Sie möchten auf einem Computer, auf dem Windows Vista installiert ist, Windows 7 zusätzlich installieren,

Mehr

Computerpflege. Windows XP Update (Arbeitssicherheit) Dieses Programm öffnet die Internetseite von Windows. Starten Sie die [Schnellsuche].

Computerpflege. Windows XP Update (Arbeitssicherheit) Dieses Programm öffnet die Internetseite von Windows. Starten Sie die [Schnellsuche]. Computerpflege Neben dem Virus Schutz ist es sehr wichtig den PC regelmässig zu Pflegen. Es sammeln sich täglich verschiedene Dateien an die nicht wirklich gebraucht werden und bedenkenlos gelöscht werden

Mehr