System Engineering and Management WS11/12. Praktische Betrachtung von GlusterFS als verteiltes Dateisystem

Größe: px
Ab Seite anzeigen:

Download "System Engineering and Management WS11/12. Praktische Betrachtung von GlusterFS als verteiltes Dateisystem"

Transkript

1 Praktische Betrachtung von GlusterFS als verteiltes Dateisystem Fechter, Patrick stuttgart.de Harr, Jörg Hoffmann, Marvin stuttgart.de stuttgart.de 1

2 1 Einführung Bei GlusterFS handelt es sich, wie im Titel bereits verraten, um ein verteiltes Dateisystem. Aufgrund der Verteilung bietet das System die Möglichkeit, Daten auf unterschiedlichen Servern (Nodes) zu speichern. Die Verteilung im Detail, kann je nach Konfiguration unterschiedlich aussehen. Als mögliche Verteilungsvarianten, kann man sich hierfür die bekannten RAID Levels vorstellen, welche man aber anstelle von Festplatten auf ganze Serversysteme im Netzwerk projiziert. Dieser Vergleich, fasst ein verteiltes Dateisystem als solches schon recht gut zusammen. GlusterFS im Speziellen lockt nun noch mit weiteren 1 Funktionalitäten, weshalb es sich in einschlägigen Medien zu dem Dateisystem im Zusammenhang mit scalability, performance und fault tolerance entwickelt hat. Der anhaltende Trend bezüglich Cloud Computing trägt hierzu ebenso bei und GlusterFS taucht hierbei häufig in diesem Zusammenhang auf. Es entsteht gar der Eindruck, dass GlusterFS für das Betreiben einer eigenen Cloud Infrastruktur unabdingbar ist. Trotz der Übernahme durch Red Hat im Oktober 2011 für insgesamt 136 Millionen US Dollar, engagieren sich Firmen wie Citrix und Facebook aktiv für die Weiterentwicklung von GlusterFS. Die Tatsache, dass Red Hat das Projekt Open Source weiterführt und sich lediglich als Sponsor betitelt, ist hierbei sicherlich hilfreich Motivation Es wurde bereits angesprochen, dass GlusterFS einhergeht mit dem alles durchdringenden Trend des Cloud Computings. Ein Dateisystem stellt eine essentielle Komponente innerhalb eines Systems dar und so erhält GlusterFS, keine Frage, zu recht viel Aufmerksamkeit. Auch deshalb, weil man oberflächlich betrachtet das Gefühl hat auf dem Gebiet der Dateisysteme ist das letzte Wörtchen schon längst gesprochen. 136 Millionen US Dollar in bar (siehe Linux Magazin) hört sich eigentlich eher nach einem schlechten Film mit einer Geldübergabe an einer Parkbank an. Niemand wird bestreiten, dass eine solche Meldung bezüglich eines Dateisystems, doch den ein oder anderen neugierig gemacht hat. Das 136 Millionen US Dollar Dateisystem selbst nach mehrfachem lesen hört sich das noch komisch an. Wie dem auch sei, es kommt wie gerufen, bewegt sich bei den Dateisystemen also doch noch was! Schaffen es im Umfeld von Dateisystemen doch tatsächlich nur wenige 1 Unterstuetzung fuer GlusterFS html 2 magazin.de/news/red Hat kauft Storage Spezialisten Gluster 2

3 Innovationen an die Oberfläche des ansonsten so stark sprudelnden Innovationsbrunnen der ITK Branche. Etwa das Dateisystem Ext4, welches das berühmte Linux Dateisystem Ext3 als Quasistandard ablöste und Ende 2008 seine Hauptentwicklungsphase hinter sich lies. Hauptsächlich die Optimierungen 3 von Ext4 bezüglich SSD Festplatten sollten hierbei erwähnt werden. Sicherlich gibt es viele weitere solcher positiven Beispiele und es soll nun nicht ein falsches Bild bezüglich einer nicht vorhandenen Forschung auf dem Gebiet der Dateisysteme vermittelt werden. Nur leider sind viele Veröffentlichungen davon nur schwer greifbar und sind die theoretischen Grundlagen verstanden, lassen sich diese aber dennoch nur äußerst selten in praktische Realisierungsüberlegungen ummünzen wie etwa bei dem äußerst bekannten Google Dateisystem. Tatsächlich ist dieses Dateisystem nirgends verfügbar und so sind zwar die Konzepte interessant, der praktische Nutzen jedoch gering. Zumindest lief eine erste Recherche nach einer Implementierung des Google Dateisystems ins Leere. Zusammenfassend kann man also sagen, dass die Kombination aus dem spannenden Gebiet von Cloud Computing, der medialen Aufmerksamkeit durch den Aufkauf von Red Hat 4 und die Möglichkeit, tatsächlich mal eine bis zu 72 brontobytes skalierbare, performante und fehler tolerante Speicherlösung betreiben zu können, Grund genug war um uns für dieses Thema zu entscheiden. Man selbst möchte wissen, ob man wirklich mit wenig Geld und gängiger Hardware in derart große Dimensionen vorstoßen kann und wie das letztlich dann praktisch aussieht. 1.2 Zielsetzung Was haben wir uns vorgenommen? Zunächst einmal wollten wir die Software GlusterFS aus technischer und praktischer Sicht kennenlernen. Die Artikel die uns bisher bekannt sind, waren uns doch etwas zu stark auf die neue geschäftliche Beziehung zu Red Hat fokussiert. 5 6 Weiter hat uns der Unterschied zu dem bereits bekannten Google File System oder Hadoop HDFS 7 vielleicht sogar einmalig machen? neugierig gemacht. Was sind Merkmale die GlusterFS abgrenzen und Weiter wollten wir ein Test System aufsetzten, mit Hilfe dessen wir die versprochenen 3 krenn.com/de/wiki/ext4_dateisystem#ssd_optimierungen the difference in glusterfs and hadoop google file system/ 6 11/2006/gfs.pdf 7 3

4 Eigenschaften auf einen realistischen Prüfstand stellen konnten. Die Kern Hypothese die es zu belegen galt war: Mit GlusterFS ist es mit geringem Aufwand möglich, anstelle teurer Enterprise Hardware einfache Consumer Hardware zu verwenden und dennoch eine 8 hoch skalierbare Storage Lösung zu betreiben. Der DELL PowerVault NX3500 liegt bei etwa und skaliert bis 389 TB. Dieser Preis enthält jedoch keine Aufwände für Datenträger. Sprich, die Realisierung einer solchen Lösung wird realistisch betrachtet, um ein vielfaches teurer werden. Der DELL PowerVault NX3500 ist aber dennoch ein sehr guter Vergleich, da GlusterFS viele seiner Funktionalitäten quasi kostenlos verspricht. Angefangen bei der Skalierung bezüglich Storage als auch Performance, der Ausfallsicherheit sowie einer Backuplösung durch die Replikation der Daten auf verschiedenen Nodes. Ob wir diese Versprechen bedingungslos vertreten können, galt es herauszufinden. 8 nx3500/pd 4

5 2 Theoretische Grundlagen 2.1 Fuse Seit 2005 in den offiziellen Linux Kernel aufgenommen, ist FUSE längst den meisten einschlägigen Fachleuten ein Begriff. FUSE steht für Filesystem in Userspace und wurde auf Sourceforge ins Leben gerufen. Ursprünglich als Unterstützung für A Virtual File System (AVFS) 10 gedacht, hat es sich schnell als eigenes Projekt etabliert. Es handelt sich hierbei um ein Kernel Modul für Unix Systeme welches erlaubt, Dateisystem Treiber im User Mode auszuführen und nicht wie üblich im Kernel Mode. Somit können beispielsweiße auch unter Unix Systemen wie Linux oder Mac OS X systemfremde Dateisysteme wie NTFS im unpriviligierten User Mode gemountet werden. Ein weiteres Beispiel für ein solches Dateisystem ist das in diesem Paper beleuchtete GlusterFS. Abbildung 1: Aufrufpfad eines Filesystem Calls über FUSE Dadurch dass GlusterFS auf FUSE aufsetzt und somit im Userspace läuft, ist die 9 FUSE Projekt auf Sourceforge: 10 AVFS Projekt auf Sourceforge: 5

6 Anwendung sehr viel flexibler. Anwendungen die im Userspace angesiedelt sind sprechen nicht direkt mit der Hardware, sondern interagieren nur über den Kernel mit ihr. Die Lücke zwischen Gluster und Kernel Interface wird von FUSE geschlossen. 2.2 Elastic Hash Algorithmus Eine Besonderheit die Red Hat an seinem GlusterFS hervorhebt ist die Tatsache, dass das Filesystem, trotz der Möglichkeit einer Verteilung über mehrere Nodes, über kein Meta Daten Repository verfügen muss. Eingespart wird dieses Repository dadurch, dass es den sogenannten Elastic Hash Algorithmus einsetzt. Doch was bedeutet das und wofür wird es überhaupt gebraucht? Betrachten wir hierfür ein Szenario, bei dem ein GlusterFS so konfiguriert wurde, dass zu speichernde Dateien über vier Nodes hinweg verteilt werden. Eine Datei zu speichern ist noch relativ simpel. Sie wird einfach auf einem der vier Nodes abgelegt. Doch wenn die Datei wieder gelesen werden soll, dann sollte man auch noch wissen wo die Datei abgelegt wurde. Hierfür gibt es nun zwei populäre Möglichkeiten. Die erste Möglichkeit ist die Einführung eines Meta Daten Repositorys. Das heißt für jede Datei die gespeichert wird halte ich an einem global bekannten Ort fest, wo die Datei abgelegt wurde. Wenn die selbe Datei nun wieder gelesen werden soll, dann muss lediglich in dem Repository nachgeschaut werden wo sie sich befindet und kann ausgeliefert werden. Es muss lediglich in dem Repository nachgeschaut werden klingt zunächst ziemlich trivial und leichtgewichtig, ist jedoch bei extrem vielen Zugriffen trotzdem ein spürbarer zeitlicher Overhead. Für jeden Zugriff auf eine Datei muss zunächst auf das Repository zugegriffen werden. Das heißt natürlich auch, dass das Repository entsprechend damit umgehen können muss. Sowohl wenn viele Dateien gelesen werden, als auch wenn viele Dateien geschrieben werden. Wäre es nicht schön wenn man sich diesen Zwischenschritt sparen könnte? Doch, das wäre es. Und hier setzt Möglichkeit zwei an. Der Node auf dem die Datei gespeichert wird, wird von der Datei selbst bestimmt. Durch die Anwendung einer Hash Funktion auf die Datei wird der Node bestimmt an dem sie abgelegt wird. Abbildung 2 versucht dies darzustellen. Die Werte die über die Hash Funktion errechnet werden sind (hoffentlich) identisch für eine angeforderte Datei, wie für eine abgelieferte Datei. Somit wird kein Repository benötigt in dem der Pfad festgehalten wird, sondern der Pfad kann jederzeit über die Hash Funktion ermittelt werden. Wichtig ist, dass 6

7 die Anzahl der Nodes in diese Rechnung einfließt, damit die Funktion elastisch bleibt und für eine beliebige Anzahl an Nodes konsistente Ergebnisse liefert. Abbildung 2: Verteilung von Daten auf vier Nodes anhand einer Hash Funktion Bild Quelle: magic of consistent hashing.html 7

8 3 Versuchsaufbau Nachdem wir uns in die theoretischen Grundlagen von GlusterFS eingearbeitet haben und die Ziele definiert waren, war der nächste Schritt eine lauffähige Instanz des Filesystems aufzusetzen. Um hier schnell voran zu kommen, entschieden wir uns das Filesystem in virtuellen Maschinen zu installieren. Dieses hatte den Vorteil, dass wir dieses nur einmal konfigurieren mussten und somit das Image auf verschiedene Rechner verteilen konnten. Damit wir keine Probleme mit den Berechtigungen bekamen und die Netzwerkverbindung in unserer Hand hatten, entschieden wir uns die VMs auf unseren Rechnern zu installieren. Die Verbindung zwischen den Host Rechnern wurde direkt über einen lokalen Switch hergestellt. Für die lokale Verbindung zwischen den Host Rechnern wurde ein 1 Gigabit Switch dem Labor verwendet. Für die vier Instanzen des Filesystems verwendeten wir zwei Notebooks von Dell und ein Macbook Pro. Die genauen Technischen Details der Hardware werden in nachstehender Tabelle aufgelistet. 12 aus # Notebook Prozessor RAM Festplatte Netzwe rk 1 MacBook Pro 15 (Feb 11) 2 Dell Latitude E6400 Intel Core 2,4 GHz Intel Core 2 2,4 GHz 4 GB 7200 rpm 1 Gbit/s 4 GB 7200 rpm 1 Gbit/s 3 Dell XPS 1530 Intel Core 2 2,2 GHz 3 GB 7200 rpm 100 Mbit/s Tabelle 1: Hardware der Host Rechner Für die Virtualisierung auf den Host Systemen wurde die Open Source Lösung Oracle VM VirtualBox in der Version 4.1 verwendet. In der VM kam Ubuntu LTS Server zum Einsatz. 3.1 Architektur Wie in Abbildung 3 dargestellt, werden auf den zwei Dell Maschinen jeweils eine VM Instanz 12 HP ProCurve Switch 1810G 8 13 https://www.virtualbox.org/ 14 8

9 gestartet und auf dem leistungsfähigeren MacBook Pro zwei VM Instanzen. Die Daten des GlusterFS Clusters werden nun über einen GlusterFS Native Client nach außen hin zur Verfügung gestellt. Diese Client Komponente ist für UNIX Systeme verfügbar und war auf Node 2 installiert, um auf die Daten zuzugreifen. Abbildung 3: Logischer Aufbau des Versuches 3.2 Installation GlusterFS kann bei Ubuntu direkt aus dem Paketmanager installiert werden. Es besteht aus zwei Teilen; dem Server Modul welche auf jedem Node installiert sein muss und dem Native Client, der einen gemeinsamen Namespace über alle Server Nodes hinweg bereitstellt und benötigt wird, um auf die Daten zuzugreifen. Beide Komponenten wurde jeweils in der Version installiert. # sudo aptitude install glusterfs server # sudo aptitude install glusterfs client 3.3 Konfiguration Aus den vier vorhanden Nodes wurden jeweils zwei im Striping Modus betrieben. Zwischen den beiden Stripes wurden die Daten dann zusätzlich gespiegelt. Abbildung 4 verdeutlicht 9

10 den Aufbau grafisch. Abbildung 4: Logischer Aufbau des Versuches Die Aufbau des Dateisystems wird über zwei Konfigurationsdateien festgelegt. Die Konfiguration der Client Komponente ist in der glusterfs.vol niedergeschrieben, die der Server Komponente in der glusterfsd.vol. Beispiele für die Konfigurationsdateien von Server Modul und Native Client befinden sich im Anhang und werden im nächsten Kapitel genauer erläutert. Translators Ein interessantes Konzept von GlusterFS sind die translators, welche spezielle Funktionen von GlusterFS implementieren. Beispiele hierfür sind: IO Scheduling, Clustering, Stripping oder Replikation. Des weiteren können sie verwendet werden um Netzwerk ACLs definieren. Die Konfiguration der translators wird über eine Textdatei realisiert. In dieser wird auch die Reihenfolge definiert, in welcher diese aufeinander aufsetzen. zu In Abbildung 5 wird dargestellt, wie sich verschiedene translators aneinanderreihen und auf dem Volume auf dem Server verschiedene Funktionen hinzufügen. Die Darstellung entspricht auch der Konfiguration des Servers unseres Projektes. Die Konfigurationsdatei ist im Anhang dieses Access Control List

11 Dokuments zu finden. Abbildung 5: Translator 17 Weitere Translators sind auf der Homepage von GlusterFS aufgelistet. 18 Das zweite Beispiel im Anhang stellt die Konfiguration unseres GlusterFS Native Clients dar. Im ersten Teil werden die vorhanden Server Nodes bekannt gemacht. Hierfür sind die Blöcke volume remote(1 4) verantwortlich. Die nächsten Blöcke volume stripe1 und volume stripe2 legen fest, welche Nodes jeweils zu einem Stripe vereint werden sollen. Die beiden Stripes werden aufgrund des Abschnitts volume replicate nun schließlich noch untereinander repliziert. Der abschließende Block beschreib noch wie groß der Lese Cache auf dem GlusterFS Native Client ist. 17 Bild Quelle:

12 4 Versuchsreihe Nachdem wir unsere Systemumgebung konfiguriert und gestartet hatten, haben wir uns vorgenommen verschiedene Versuche mit dieser Umgebung durchzuführen. Dadurch konnten wir mehr über die Funktionsweise von GlusterFS erfahren und praktische Erkenntnisse sammeln. 4.1 Performance In Bezug auf Performance, stellte sich uns die Frage, ob durch GlusterFS Engpässe beseitigt werden können und wenn ja welche. Geht man von einem einzigen Fileserver mit Anschluss an ein 1000 Gbit/s Netzwerk und Festplatten neuerer Generation aus, so erreicht dieser etwa eine Übertragungsrate von 80 MB/s. Wie könnten Tests nun aussehen, um den versprochenen Performance Gewinn durch GlusterFS testen zu können? Im nachhinein betrachtet ist der beschriebene Versuchsaufbau nicht ausreichend, um die tatsächliche Leistungsfähigkeit der versprochene Skalierung von GlusterFS testen zu können. Rechner 3 drosselte mit seinem 100 Mbit/s Interface die Übertragungsgeschwindigkeit wie erwartet auf etwa 10 MB/s. Siehe Abbildung 6. Abbildung 6: Performance zwischen Rechner 1 und 3 Auch die Übertragungsgeschwindigkeit zwischen Rechner 1 und Rechner 2, beide verfügen über ein 1 Gbit/s Interface, war mit etwa 40 MB/s vorhersehbar. Warum? Weil die verwendeten Festplatten schreibend nicht mehr verarbeiten können und durch die Herausnahme von Rechner 3 das System seine GlusterFS Eigenschaften verloren hat. Siehe Abbildung 7. 12

13 Abbildung 7: Performance zwischen Rechner 1 und 2 Theoretisch hätten wir die selbe Anzahl an Maschinen nochmal benötigt, um anschließend mit drei PCs gleichzeitig auf eine Datei innerhalb von GlusterFS, ebenso bestehend aus drei vernetzten Computern, zuzugreifen. In diesem Fall hätten die Festplatten alle PCs mit jeweils maximaler Geschwindigkeit versorgt und somit das Limit eines 1 Gbit Switches (etwa 80 MB/s) überschritten. Somit hätte dann das Netzwerk einen Engpass dargestellt. Denkt man nun noch einen Schritt größer, etwa in der Dimension eines Datacenters, dann hätte wohl jeder Serverrack einen eigenen Switch und würde beispielsweise zwölf GlusterFS Server enthalten. In Summe kümmert sich also mehr als nur ein Switch um die Verteilung der Daten und so skalieren dann auch größere Storage Lösungen besser als ein einzelner dedizierter Fileserver mit 1 Gbit Anbindung. Die Konfiguration wurde hinsichtlich der IO Caches mit drei unterschiedlichen Werten getestet 64MB, 128MB und 512MB. In keinem der drei Testfälle kam es zu einschlägigen Veränderungen, so dass letztlich keinerlei Rückschluss auf diese Einstellung möglich war. Wir vermuten aber, dass sich die größe des Cache erst ab einer hohen Anzahl an Nodes und einem großen Gesamtvolumen auswirken kann. Logischerweise auch dann erst, wenn ein häufiger Zugriff auf die selben Datenblöcke erfolgt. 4.2 Single Point of Failure Bei GlusterFS handelt es sich um ein Dateisystem, welches viele Fehler kompensieren kann und aufgrund seiner Verteilung eine hohe Ausfallsicherheit aufweist. In unserer Konfiguration gibt es aber dennoch einen Single Point of Failure. In Abbildung 8 stellt der schwarze Pfad den Versuchsaufbau dar. Hier ist gut zu erkennen, dass der GlusterFS Native Client nur einmal in unserem Aufbau vorkommt. 13

14 Abbildung 8: Single Point of Failure im schwarzen Pfad Um das Szenario ausfallsicher zu machen, muss ein zweiter Native Client in den Versuch eingebaut werden. Dieser kann unabhänig vom ersten betrieben werden, da GlusterFS wie in Kapital 2.2 beschrieben, über kein Meta Daten Repository für die Dateien benötigt. 4.3 Replikation, Replikation, Replikation Gerade dann, wenn man auf Consumer Hardware vertraut, sollte man schon im Voraus von einem größeren Verschleiss der Geräte ausgehen. Und im speziellen Fall eines verteilten Dateisystems, muss man eigentlich schon damit rechnen, dass dieser Fall eintritt und Festplatten innerhalb eines unbekannten Zeitfenster ausfallen werden. Nun ist es kein Geheimnis, dass Replikation die Verfügbarkeit von Daten erhöht und dieser Ansatz wird auch hier gewählt. In unserem in Kapitel 3.3 beschriebenen Setup wird zwar lediglich auf zwei Nodes repliziert, dies reicht aber aus um den GlusterFS Selbstheilungsprozess nach zu vollziehen. Kopiert man initial eine Datei auf das gemountete GlusterFS Volume, so lässt sich anhand der Netzwerkübertragung feststellen, dass die Datei simultan auf beide, als Replikate 14

15 angebene Server, übertragen wird. Die GlusterFS Dokumentation gibt an, dass das GlusterFS Server Modul, welches auf den Storage Nodes ausgeführt wird, einen write Befehl empfängt und diesen auf der Festplatte des Systems ausführt. Hierzu bedient es sich eines Two Phase Commit Modells. Der GlusterFS Native Client erhält einen Lockauf die Datei, schreibt eine Transaction Log, führt den Schreibvorgang aus und gibt die Datei letztlich wieder frei. GlusterFS bietet nicht nur für ruhende Daten eine Failover Lösung durch Replikation, sondern auch für Daten innerhalb einer Übertragung. Was bei hohen Zugriffszahlen weit aus wichtiger sein kann. GlusterFS liefert hierfür eine automatische Failover Funktion, welche gewährleistet, dass wenn eine Operation mit einem Node fehlschlägt, diese automatisch von einem Replikat nahtlos übernommen und zu Ende geführt wird. Wenn dieser Fall eintritt und man einen als Replikat definierten Node abschaltet, erhalten alle nachfolgenden Daten und die innerhalb der übernommenen Operation einen Tagwelcher kennzeichnet, dass auf diese Daten noch Operationen bezüglich der Replikation anstehen. Wenn der abgeschaltete Node anschließend ohne Daten wiederhergestellt und verfügbar gemacht wird, passiert zunächst nichts. Sobald aber eine simple touchoperation auf eine mit dem erwähnten Tag gekennzeichnete Datei aufgerufen wird, stellt der GlusterFS Native Client fest, dass noch Operationen für diese Datei anstehen und liest die Datei ein um sie im Anschluss auf den wiederhergestellten Node zu replizieren. Durch diesen Event erhält GlusterFS die benötigte Information über den nicht erreichbaren Node und prüft dessen Verfügbarkeit. Sollte der Node wiederhergestellt worden sein, beginnt GlusterFS diesen vollständig zu synchronisieren, um fortan wieder alle Daten simultan speichern zu können. 4.4 Dynamische Speichererweiterung Die dynamische Speichererweiterung war für uns einer der interessantesten Aspekte. In der heutigen Zeit der always on Generation verzeihen einem Nutzer keine Ausfallzeiten und im kommerziellen Bereich kann man sich diese schlicht gesagt auch einfach nicht leisten. Daher war es für uns spannend herauszufinden, ob man mit GlusterFS die Speicherkapazität seines Systemes on the fly während dem laufenden Betrieb einfach erhöhen kann, ohne dass Ausfallzeiten entstehen. Bevor wir uns selbst daran gemacht haben zu testen, haben wir zunächst einmal das Internet durchforstet um zu sehen, ob es diesbezüglich Erfahrungsberichte oder best 15

16 practises gibt. Dabei sind wir auf völlig unterschiedliche Kommentare gestoßen und waren etwas verwirrt über die breit auseinanderklaffenden Meinungen. Im Laufe der Zeit sind wir dann darauf aufmerksam geworden, dass die unterschiedlichen Kommentare auf unterschiedliche GlusterFS Versionen zurück zu führen waren. Seit der Version 3.1 hält das Produkt was es verspricht und ist wirklich sehr dynamisch. Während dem laufenden Betrieb lassen sich einem System Nodes hinzufügen, ohne dass der GlusterFS Dienst neu gestartet, oder das Volume neu gemountet werden muss. Nachdem der Node mit dem folgenden Befehl hinzugefügt wurde ist der zusätzliche Speicherplatz sofort verfügbar: # gluster volume add brick [VOLUME NAME] [NODE NAME]:[PFAD] Soll zusätzlich ein rebalancing durchgeführt werden, damit die Nodes alle gleichermaßen gefüllt sind, so kann dies zusätzlich noch angestoßen werden: # gluster volume rebalance [VOLUME NAME] start Einmal angestoßen werden nun die Dateien so umgelagert, dass alle Nodes den selben Auslastungsgrad haben. Während des Balancings kann man sich den Status der Vorgangs anzeigen lassen. Solange der Vorgang noch nicht abgeschlossen ist, wird man über den Fortschritt und den aktuellen Stand informiert. Ist der Vorgang abgeschlossen so liefert der Befehl diese Information zurück und informiert darüber wie viele Files verschoben wurden und die Gesamtgröße der verschobenen Dateien. # gluster volume rebalance [VOLUME NAME] status # rebalance completed: rebalanced 123 files of size (total files scanned 456) Diese Flexibilität war leider noch nicht immer in GlusterFS zu finden. In Versionen vor 3.1 war das Hinzufügen einer Node etwas umständlicher. Hier musste ein neuer Node in die Konfiguration mit aufgenommen, der GlusterFS Dienst neu gestartet und ein remounting durchgeführt werden. Dies führt also zu kurzzeitiger Nicht Verfügbarkeit des Systems. Diese Tatsache könnte für viele Interessenten ein Grund gewesen sein GlusterFS nicht einzusetzen und bedurfte dringender Korrektur, was inzwischen auch erfolgreich umgesetzt wurde. 16

17 Fazit An dieser Stelle wollen wir nun noch einmal zusammenfassen was uns an GlusterFS besonders positiv und was eher negativ aufgefallen ist. Das Fazit resultiert aus den Ergebnissen und Erfahrungen, welche wir während der Testphasen gesammelt haben. Werfen wir zunächst einen Blick auf die positiven Aspekte der Technologie. Als erster Punkt ist hier die Einfachheit aufzuführen, mit der dank GlusterFS ein Daten Cluster aufgesetzt werden kann. Die Konfiguration in einem überschaubaren Rahmen, so wie in unserem Projekt, ging recht zügig von der Hand. Allgemein ist die Konfigurationsdatei trivial aufgebaut und somit auch mit etwas zeitlichem Abstand, trotzdem noch sehr gut leserlich und verständlich. Replikations und Striping Konzepte sind ohne großen Aufwand sehr schnell integriert und einsatzbereit. Unserer Meinung nach ist es somit nicht sehr schwierig einen recht moderaten Cluster in kurzer Zeit zu konfigurieren und zu betreiben entsprechende Server beziehungsweise Linux Kenntnisse vorausgesetzt. In der Konfiguration lassen sich jedoch nicht nur architektonische Aspekte abbilden. Über dort zu findende Parameter wie Caching, Locking und Anzahl verwendeter IO Threads kann die Performance des Systems weiter optimiert und entsprechend seiner Bedürfnisse angepasst werden. Des Weiteren ist positiv hervorzuheben, dass GlusterFS auf FUSE setzt und somit nicht im priviligierten Modus ausgeführt werden muss. Da dürfte dem einen oder anderen Administrator ein Stein vom Herzen fallen. Was die Performance und die Stabilität betrifft, können wir mit unserem sehr kleinen Setup leider keine für alle Szenarien gültigen Aussagen treffen. Bei uns lief der GlusterFS Cluster jedoch stets sehr stabil und war, wenn man die verwendete Hardware berücksichtigt, auch von der Performance her überzeugend. Zumindest hatte die für unser Setup benötigte Replikation keine negativen Auswirkungen. Anfangs sahen wir den größten Schwachpunkt in der Flexibilität des Systems. Hatten wir von einem verteilten und skalierenden System ein sehr flexibles Verhalten erwarten, schien jedoch genau gegenteiliges der Fall. Trotz der lobend hervorgehobenen Einfachheit der Konfiguration, war es doch genau diese, die dem System seine Flexibilität nahm. Jeder Node der in den Cluster aufgenommen werden sollte musste zunächst für sich konfiguriert (Server Konfig) und anschließend in die Gesamtkonfiguration aufgenommen werden. Das es 17

18 für diese Konfigurationsaufgaben scheinbar keine Master Funktion an zentraler Stelle geben sollte, war für uns völlig unverständlich. Wie bereits im letzten Kapitel angesprochen, hatten wir dann jedoch glücklich festgestellt, dass in der von uns eingesetzten Version 3.2 dieser Mangel bereits beseitigt war. Aus einem System das scheinbar lieber nicht angefasst werden sollte im Hinblick auf das Hinzufügen neuer Nodes wurde dank diesem Update ein einfach zu skalierendes System. Abschließend wollen wir noch einmal auf das erste Kapitel zurück Blicken. Dort hatten wir folgende These aufgestellt: Mit GlusterFS ist es mit geringem Aufwand möglich, anstelle teurer Enterprise Hardware einfache Consumer Hardware zu verwenden und dennoch eine hoch skalierbare Storage Lösung zu betreiben. Nachdem wir uns nun einige Zeit mit GlusterFS beschäftigt haben sind wir uns einig, dass es mit dieser Technologie durchaus möglich ist einen performanten und einfach skalierenden Cluster aufzusetzten. GlusterFS fühlt sich besonders dann wohl, wenn es über Nodes hinweg betrieben wird, die über Infiniband miteinander vernetzt sind, so dass das Netzwerk nicht zum Flaschenhals wird. Die Hypothese trifft zwar keine Aussage über die Ausfallsicherheit des Systems, eine solche Gegenüberstellung ist jedoch auch nicht notwendig. Consumer Hardware ist natürlich weniger langlebig als dedizierte Server Hardware die für dauerhaft hohe Last konzipiert ist, jedoch ist ein Cluster auf Basis von GlusterFS durch Replikation so ausfallsicher, dass ein Austauschen ganzer Nodes ermöglicht wird. Als Ausblick und damit am Ende dieser Ausarbeitung angekommen, wäre es mit den nun gewonnenen Erkenntnissen ein weiteres spannendes Unterfangen, mit Hilfe der Amazon 19 EC2, ein größeres Setup mit beispielsweise 42 Nodes zu konfigurieren und einige der Test Szenarien damit erneut zu wiederholen. 19 https://aws.amazon.com/solution providers/isv/gluster 18

19 Anhang Tabellen Notebook Name VM IP VM IP Host Dell E6400 Node Dell XPS Node MacBook Pro Node MacBook Pro Node Tabelle 2: VM Netzwerkkonfiguration Konfigurationen Beispiel Server Pfad: /etc/glusterfs/glusterfsd.vol volume posix type storage/posix option directory /data/export end volume volume locks type features/locks subvolumes posix end volume volume brick type performance/io threads option thread count 8 subvolumes locks end volume volume server type protocol/server 19

20 option transport type tcp option auth.addr.brick.allow * subvolumes brick end volume Beispiel Native Client Pfad: /etc/glusterfs/glusterfs.vol volume remote1 type protocol/client option transport type tcp option remote host option remote subvolume brick end volume volume remote(2 4) type protocol/client option transport type tcp option remote host (2 4) option remote subvolume brick end volume volume stripe1 type cluster/stripe subvolumes remote1 remote2 end volume volume stripe2 type cluster/stripe subvolumes remote3 remote4 end volume volume replicate type cluster/replicate subvolumes stripe1 stripe2 end volume volume cache type performance/io cache 20

21 option cache size 512MB subvolumes replicate end volume 21

Aufbau einer Testumgebung mit VMware Server

Aufbau einer Testumgebung mit VMware Server Aufbau einer Testumgebung mit VMware Server 1. Download des kostenlosen VMware Servers / Registrierung... 2 2. Installation der Software... 2 2.1 VMware Server Windows client package... 3 3. Einrichten

Mehr

VirtualBox und OSL Storage Cluster

VirtualBox und OSL Storage Cluster VirtualBox und OSL Storage Cluster A Cluster in a Box A Box in a Cluster Christian Schmidt Systemingenieur VirtualBox und OSL Storage Cluster VirtualBox x86 und AMD/Intel64 Virtualisierung Frei verfügbar

Mehr

PVFS (Parallel Virtual File System)

PVFS (Parallel Virtual File System) Management grosser Datenmengen PVFS (Parallel Virtual File System) Thorsten Schütt thorsten.schuett@zib.de Management grosser Datenmengen p.1/?? Inhalt Einführung in verteilte Dateisysteme Architektur

Mehr

Hyper-V Grundlagen der Virtualisierung

Hyper-V Grundlagen der Virtualisierung Grundlagen der Virtualisierung Was ist Virtualisierung? Eine Software-Technik, die mehrere Betriebssysteme gleichzeitig auf dem Rechner unabhängig voneinander betreibt. Eine Software-Technik, die Software

Mehr

4 Planung von Anwendungsund

4 Planung von Anwendungsund Einführung 4 Planung von Anwendungsund Datenbereitstellung Prüfungsanforderungen von Microsoft: Planning Application and Data Provisioning o Provision applications o Provision data Lernziele: Anwendungen

Mehr

MailUtilities: Remote Deployment - Einführung

MailUtilities: Remote Deployment - Einführung MailUtilities: Remote Deployment - Einführung Zielsetzung Die Aufgabe von Remote Deployment adressiert zwei Szenarien: 1. Konfiguration der MailUtilities von einer Workstation aus, damit man das Control

Mehr

CloneManager Für Windows und Linux

CloneManager Für Windows und Linux bietet ein leicht zu bedienendes, automatisches Verfahren zum Klonen und Migrieren zwischen und innerhalb von physischen oder virtuellen Maschinen oder in Cloud- Umgebungen. ist eine Lösung für die Live-Migrationen

Mehr

Lizenzierung von Windows Server 2012

Lizenzierung von Windows Server 2012 Lizenzierung von Windows Server 2012 Das Lizenzmodell von Windows Server 2012 Datacenter und Standard besteht aus zwei Komponenten: Prozessorlizenzen zur Lizenzierung der Serversoftware und CALs zur Lizenzierung

Mehr

ISA Server 2004 - Best Practice Analyzer

ISA Server 2004 - Best Practice Analyzer ISA Server 2004 - Best Practice Analyzer Die Informationen in diesem Artikel beziehen sich auf: Microsoft ISA Server 2004 Seit dem 08.12.2005 steht der Microsoft ISA Server 2004 Best Practice Analyzer

Mehr

Lizenzierung von Windows Server 2012 R2. Lizenzierung von Windows Server 2012 R2

Lizenzierung von Windows Server 2012 R2. Lizenzierung von Windows Server 2012 R2 Lizenzierung von Windows Server 2012 R2 Lizenzierung von Windows Server 2012 R2 Das Lizenzmodell von Windows Server 2012 R2 Datacenter und Standard besteht aus zwei Komponenten: Prozessorlizenzen zur Lizenzierung

Mehr

Hyper-V Server 2008 R2

Hyper-V Server 2008 R2 Hyper-V Server 2008 R2 1 Einrichtung und Installation des Hyper-V-Servers 1.1 Download und Installation 4 1.2 Die Administration auf dem Client 9 1.3 Eine VM aufsetzen 16 1.4 Weiterführende Hinweise 22

Mehr

Neues in Hyper-V Version 2

Neues in Hyper-V Version 2 Michael Korp Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/mkorp Neues in Hyper-V Version 2 - Virtualisieren auf die moderne Art - Windows Server 2008 R2 Hyper-V Robust Basis:

Mehr

Hochschule Darmstadt - Fachbereich Informatik - Fachschaft des Fachbereiches

Hochschule Darmstadt - Fachbereich Informatik - Fachschaft des Fachbereiches Hochschule Darmstadt - Fachbereich Informatik - Fachschaft des Fachbereiches Verwendung der bereitgestellten Virtuellen Maschinen»Einrichten einer Virtuellen Maschine mittels VirtualBox sowie Zugriff auf

Mehr

Sichere Daten mit OSL Storage Cluster

Sichere Daten mit OSL Storage Cluster Sichere Daten mit OSL Storage Cluster Alternative Konzepte für die Datensicherung und Katastrophenvorsorge Dipl.-Ing. Torsten Pfundt Gliederung Voraussetzungen für die Konzepte und Lösungen restorefreies

Mehr

Einführung in git. Ben Oswald. 27. April 2014. Im Rahmen der Vorlesung Entwicklung mobiler Anwendungen

Einführung in git. Ben Oswald. 27. April 2014. Im Rahmen der Vorlesung Entwicklung mobiler Anwendungen Einführung in git Im Rahmen der Vorlesung Entwicklung mobiler Anwendungen Ben Oswald 27. April 2014 Inhaltsverzeichnis 1 Einleitung 1 1.1 Was ist git?..................................... 1 1.2 Warum sollten

Mehr

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick:

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Red Hat Storage Server Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Offene Software Lösung für Storage Ansprache über einen globalen Namensraum Betrachtet Storage als einen virtualisierten

Mehr

Hochverfügbarkeit mit Windows Server vnext. Carsten Rachfahl Microsoft Hyper-V MVP

Hochverfügbarkeit mit Windows Server vnext. Carsten Rachfahl Microsoft Hyper-V MVP Hochverfügbarkeit mit Windows Server vnext Carsten Rachfahl Microsoft Hyper-V MVP Carsten Rachfahl www.hyper-v-server.de Roling Cluster Upgrade Herausforderung: Update eines Failover Clusters ohne Downtime

Mehr

Leitfaden Datensicherung und Datenrücksicherung

Leitfaden Datensicherung und Datenrücksicherung Leitfaden Datensicherung und Datenrücksicherung Inhaltsverzeichnis 1. Einführung - Das Datenbankverzeichnis von Advolux... 2 2. Die Datensicherung... 2 2.1 Advolux im lokalen Modus... 2 2.1.1 Manuelles

Mehr

Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung

Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung Fritz Günther 17.03.2014 Folie 1 Agenda Was ist Virtualisierung Server- / Clientvirtualisierung

Mehr

XEN Performance. Projektpraktikum Informatik. Arne Klein 2008-02-26. Arne Klein () XEN Performance 2008-02-26 1 / 25

XEN Performance. Projektpraktikum Informatik. Arne Klein 2008-02-26. Arne Klein () XEN Performance 2008-02-26 1 / 25 XEN Performance Projektpraktikum Informatik Arne Klein 2008-02-26 Arne Klein () XEN Performance 2008-02-26 1 / 25 1 Virtualisierung mit XEN 2 Performance von XEN Allgemeines Netzwerk-Performance IO-Performance

Mehr

Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT

Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT Folie 1 VDE-Symposium 2013 BV Thüringen und Dresden Virtualisierung von Leittechnikkomponenten Andreas Gorbauch PSIEnergie-EE Folie

Mehr

Oracle Automatic Storage Management (ASM) Best Practices

Oracle Automatic Storage Management (ASM) Best Practices Oracle Automatic Storage Management (ASM) Best Practices Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 Agenda ASM Funktionalität und Architektur Storage Management

Mehr

Administration von großen Ubuntu Linux Desktop Umgebungen mit Univention Corporate Client

Administration von großen Ubuntu Linux Desktop Umgebungen mit Univention Corporate Client Administration von großen Ubuntu Linux Desktop Umgebungen mit Univention Corporate Client Ubucon 2013, Heidelberg Erik Damrose Univention GmbH Agenda 1. Vorstellung von Univention

Mehr

KURZANLEITUNG DUPLICITY MIT CLOUD OBJECT STORAGE

KURZANLEITUNG DUPLICITY MIT CLOUD OBJECT STORAGE KURZANLEITUNG DUPLICITY MIT CLOUD OBJECT STORAGE Version 1.12 01.07.2014 SEITE _ 2 INHALTSVERZEICHNIS 1. Einleitung...Seite 03 2. Einrichtung des Systems...Seite 04 3. Erzeugen eines Backup-Skripts...Seite

Mehr

ZMI Benutzerhandbuch Sophos. Sophos Virenscanner Benutzerhandbuch

ZMI Benutzerhandbuch Sophos. Sophos Virenscanner Benutzerhandbuch ZMI Benutzerhandbuch Sophos Sophos Virenscanner Benutzerhandbuch Version: 1.0 12.07.2007 Herausgeber Zentrum für Medien und IT ANSCHRIFT: HAUS-/ZUSTELLADRESSE: TELEFON: E-MAIL-ADRESSE: Zentrum für Medien

Mehr

OSL Storage Cluster und RSIO unter Linux Storage-Attachment und Hochverfügbarkeit in 5 Minuten

OSL Storage Cluster und RSIO unter Linux Storage-Attachment und Hochverfügbarkeit in 5 Minuten OSL Storage Cluster und RSIO unter Linux Storage-Attachment und Hochverfügbarkeit in 5 Minuten OSL Technologietage Berlin 12./13. September 2012 Christian Schmidt OSL Gesellschaft für offene Systemlösungen

Mehr

Einrichten der Outlook-Synchronisation

Einrichten der Outlook-Synchronisation Das will ich auch wissen! - Kapitel 3 Einrichten der Outlook-Synchronisation Inhaltsverzeichnis Überblick über dieses Dokument... 2 Diese Kenntnisse möchten wir Ihnen vermitteln... 2 Diese Kenntnisse empfehlen

Mehr

[Geben Sie Text ein] ISCSI Targets mit der Software FreeNAS einrichten

[Geben Sie Text ein] ISCSI Targets mit der Software FreeNAS einrichten [Geben Sie Text ein] ISCSI Targets mit der Software FreeNAS einrichten ISCSI Targets mit der Software FreeNAS einrichten Inhalt FreeNAS Server Vorbereitung... 2 Virtuelle Maschine einrichten... 3 FreeNAS

Mehr

64 Bit erhöhen die nutzbare Größe für den Arbeitsspeicher.

64 Bit erhöhen die nutzbare Größe für den Arbeitsspeicher. EasyProfil 2.x unter Windows 7-64-Bit Es wird in Ihrer Programmsammlung außer EasyProfil auch noch einige andere wichtige Programme geben, die derzeit noch unter 16 Bit laufen. So macht untenstehende Erweiterung

Mehr

VMware vsphere 6.0 Neuigkeiten und neue Features

VMware vsphere 6.0 Neuigkeiten und neue Features VMware vsphere 6.0 Neuigkeiten und neue Features Präsentation 30. Juni 2015 1 Diese Folien sind einführendes Material für ein Seminar im Rahmen der Virtualisierung. Für ein Selbststudium sind sie nicht

Mehr

DocuWare unter Windows 7

DocuWare unter Windows 7 DocuWare unter Windows 7 DocuWare läuft unter dem neuesten Microsoft-Betriebssystem Windows 7 problemlos. Es gibt jedoch einige Besonderheiten bei der Installation und Verwendung von DocuWare, die Sie

Mehr

High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO

High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO Anastasios Stomas SFI Technology Services AG 12. März 2003 anastasios.stomas@sfi.ch Seite 1 Hintergrund INHALT Cluster-

Mehr

Securepoint Security Systems

Securepoint Security Systems HowTo: Virtuelle Maschine in VMware für eine Securepoint Firewall einrichten Securepoint Security Systems Version 2007nx Release 3 Inhalt 1 VMware Server Console installieren... 4 2 VMware Server Console

Mehr

2. Sie sind der Administrator Ihres Netzwerks, das den SBS 2011 Standard ausführt.

2. Sie sind der Administrator Ihres Netzwerks, das den SBS 2011 Standard ausführt. Arbeitsblätter Der Windows Small Business Server 2011 MCTS Trainer Vorbereitung zur MCTS Prüfung 70 169 Aufgaben Kapitel 1 1. Sie sind der Administrator Ihres Netzwerks, das den SBS 2011 Standard ausführt.

Mehr

Powermanager Server- Client- Installation

Powermanager Server- Client- Installation Client A Server Client B Die Server- Client- Funktion ermöglicht es ein zentrales Powermanager Projekt von verschiedenen Client Rechnern aus zu bedienen. 1.0 Benötigte Voraussetzungen 1.1 Sowohl am Server

Mehr

Installation SQL- Server 2012 Single Node

Installation SQL- Server 2012 Single Node Installation SQL- Server 2012 Single Node Dies ist eine Installationsanleitung für den neuen SQL Server 2012. Es beschreibt eine Single Node Installation auf einem virtuellen Windows Server 2008 R2 mit

Mehr

How to install ubuntu by crypted file system

How to install ubuntu by crypted file system How to install ubuntu by crypted file system Enthaltene Funktionen: - Installation eines verschlüsselten Ubuntu Systems Voraussetzung: - Internetverbindung - Iso-Image Download unter: http://wiki.ubuntuusers.de/downloads/oneiric_ocelot

Mehr

3 Installation von Exchange

3 Installation von Exchange 3 Installation von Exchange Server 2010 In diesem Kapitel wird nun der erste Exchange Server 2010 in eine neue Umgebung installiert. Ich werde hier erst einmal eine einfache Installation mit der grafischen

Mehr

Hmmm.. Hmmm.. Hmmm.. Genau!! Office in der Cloud Realität oder Zukunft? Dumme Frage! ist doch schon lange Realität!. aber auch wirklich für alle sinnvoll und brauchbar? Cloud ist nicht gleich Cloud!

Mehr

INFORMATION MONITOR HSM SOFTWARE GMBH CLIENT-INSTALLATION

INFORMATION MONITOR HSM SOFTWARE GMBH CLIENT-INSTALLATION INFORMATION MONITOR HSM SOFTWARE GMBH CLIENT-INSTALLATION Allgemein Infomon bietet die Architektur für das Informations-Monitoring in einer Windows- Topologie. Die Serverfunktionalität wird in einer IIS-Umgebung

Mehr

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension

Mehr

Virtual Elastic Services

Virtual Elastic Services Überblick Inhalt dieses Vortrages Virtualisierung Seminar zum Schwerpunkt Systemtechnik von 10. März 2007 Überblick Inhalt dieses Vortrages Virtualisierung.: Überblick :. Ausblick auf Virtualisierungskonzepte

Mehr

Tipps & Tricks: März 2011. Parameter der tnsnames.ora im RAC Umfeld. 1. Parameter: Bereich: Erstellung: RAC 03/2011 SH. Letzte Überarbeitung: 11.

Tipps & Tricks: März 2011. Parameter der tnsnames.ora im RAC Umfeld. 1. Parameter: Bereich: Erstellung: RAC 03/2011 SH. Letzte Überarbeitung: 11. Tipps & Tricks: März 2011 Bereich: RAC Erstellung: 03/2011 SH Versionsinfo: 11.2 Letzte Überarbeitung: 03/2011 SH Als PDF Downloaden! Parameter der tnsnames.ora im RAC Umfeld Wird Oracle Real Application

Mehr

SPARC LDom Performance optimieren

SPARC LDom Performance optimieren SPARC LDom Performance optimieren Marcel Hofstetter hofstetter@jomasoft.ch http://www.jomasoftmarcel.blogspot.ch Mitgründer, Geschäftsführer, Enterprise Consultant JomaSoft GmbH 1 Inhalt Wer ist JomaSoft?

Mehr

WISSENSWERTES ÜBER WINDOWS SCALE-OUT FILE SERVER

WISSENSWERTES ÜBER WINDOWS SCALE-OUT FILE SERVER WISSENSWERTES ÜBER WINDOWS SCALE-OUT FILE SERVER AGENDA 01 File Server Lösungen mit Windows Server 2012 R2 02 Scale-out File Server 03 SMB 3.0 04 Neue File Server Features mit Windows Server 2016 05 Storage

Mehr

RAC auf Sun Cluster 3.0

RAC auf Sun Cluster 3.0 RAC auf Sun Cluster 3.0 Schlüsselworte RAC, OPS, Sun Cluster, Performance, Availability Zusammenfassung Oracle hat mit dem Real Application Cluster (RAC) aus einer Hochverfügbarkeitslösung eine Höchstverfügbarkeitslösung

Mehr

Hochverfügbare Virtualisierung mit Open Source

Hochverfügbare Virtualisierung mit Open Source Hochverfügbare Virtualisierung mit Open Source Gliederung DRBD Ganeti Libvirt Virtualisierung und Hochverfügbarkeit Hochverfügbarkeit von besonderer Bedeutung Defekt an einem Server => Ausfall vieler VMs

Mehr

HANDBUCH LSM GRUNDLAGEN LSM

HANDBUCH LSM GRUNDLAGEN LSM Seite 1 1.0 GRUNDLAGEN LSM 1.1. SYSTEMVORAUSSETZUNGEN AB LSM 3.1 SP1 (ÄNDERUNGEN VORBEHALTEN) ALLGEMEIN Lokale Administratorrechte zur Installation Kommunikation: TCP/IP (NetBios aktiv), LAN (Empfehlung:

Mehr

Version 2.0.1 Deutsch 14.05.2014

Version 2.0.1 Deutsch 14.05.2014 Version 2.0.1 Deutsch 14.05.2014 In diesem HOWTO wird beschrieben, wie Sie die IAC-BOX in VMware ESXi ab Version 5.5 virtualisieren können. Beachten Sie unbedingt die HinweisTabelle der Mindestvoraussetzungen.

Mehr

DELL On-Demand Desktop Streaming-Referenzarchitektur (ODDS) (Bedarfsbasierte Desktop- Streaming-Referenzarchitektur)

DELL On-Demand Desktop Streaming-Referenzarchitektur (ODDS) (Bedarfsbasierte Desktop- Streaming-Referenzarchitektur) DELL On-Demand Desktop Streaming-Referenzarchitektur (ODDS) (Bedarfsbasierte Desktop- Streaming-Referenzarchitektur) Ein technisches White Paper von Dell ( Dell ). Mohammed Khan Kailas Jawadekar DIESES

Mehr

In 15 einfachen Schritten zum mobilen PC mit Paragon Drive Copy 10 und Microsoft Windows Virtual PC

In 15 einfachen Schritten zum mobilen PC mit Paragon Drive Copy 10 und Microsoft Windows Virtual PC PARAGON Technologie GmbH, Systemprogrammierung Heinrich-von-Stephan-Str. 5c 79100 Freiburg, Germany Tel. +49 (0) 761 59018201 Fax +49 (0) 761 59018130 Internet www.paragon-software.com Email sales@paragon-software.com

Mehr

SANTEC Video Technologies Professionelle Lösungen für mehr Sicherheit

SANTEC Video Technologies Professionelle Lösungen für mehr Sicherheit 1 SANTEC Video Technologies Professionelle Lösungen für mehr Sicherheit Videoüberwachung Netzwerktechnik IR-Freilandsensorik Dienstleistungen Pivot3 Ressourcen sparen mit Pivot3 Server-/Storage-Lösungen

Mehr

4. Optional: zusätzliche externe Speicherung der Daten in unserem Rechenzentrum

4. Optional: zusätzliche externe Speicherung der Daten in unserem Rechenzentrum KMU Backup Ausgangslage Eine KMU taugliche Backup-Lösung sollte kostengünstig sein und so automatisiert wie möglich ablaufen. Dennoch muss es alle Anforderungen die an ein modernes Backup-System gestellt

Mehr

PROFI UND NUTANIX. Portfolioerweiterung im Software Defined Data Center

PROFI UND NUTANIX. Portfolioerweiterung im Software Defined Data Center PROFI UND NUTANIX Portfolioerweiterung im Software Defined Data Center IDC geht davon aus, dass Software-basierter Speicher letztendlich eine wichtige Rolle in jedem Data Center spielen wird entweder als

Mehr

Oracle Database 10g Die RAC Evolution

Oracle Database 10g Die RAC Evolution Oracle Database 10g Die RAC Evolution Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 RAC-Revolution, RAC-Evolution & Computing Oracle8i mit OPS Oracle9i Rel.

Mehr

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Seit Microsoft Exchange Server 2010 bieten sich für Unternehmen gleich zwei mögliche Szenarien an, um eine rechtskonforme Archivierung

Mehr

FrogSure Installation und Konfiguration

FrogSure Installation und Konfiguration FrogSure Installation und Konfiguration 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis...1 2 Installation...1 2.1 Installation beginnen...2 2.2 Lizenzbedingungen...3 2.3 Installationsordner auswählen...4 2.4

Mehr

Marketing Update. Enabler / ENABLER aqua / Maestro II

Marketing Update. Enabler / ENABLER aqua / Maestro II Marketing Update Enabler / ENABLER aqua / Maestro II Quartal 01/2012 1 Kommentar des Herausgebers Liebe Kunden und Partner, dieser Marketing Update gibt Ihnen einen kurzen Überblick über die aktuell verfügbaren

Mehr

Sind Cloud Apps der nächste Hype?

Sind Cloud Apps der nächste Hype? Java Forum Stuttgart 2012 Sind Cloud Apps der nächste Hype? Tillmann Schall Stuttgart, 5. Juli 2012 : Agenda Was sind Cloud Apps? Einordnung / Vergleich mit bestehenden Cloud Konzepten Live Demo Aufbau

Mehr

Hochverfügbare Linux Cluster mit OSL Storage Cluster 4.0 und RSIO. 11. OSL Technologietage Berlin 24./25. September 2013

Hochverfügbare Linux Cluster mit OSL Storage Cluster 4.0 und RSIO. 11. OSL Technologietage Berlin 24./25. September 2013 Hochverfügbare Linux Cluster mit OSL Storage Cluster 4.0 und RSIO 11. OSL Technologietage Berlin 24./25. September 2013 Prinzipielles Clusterdesign Aufbau eines Linux HA-Clusters Was brauche ich für einen

Mehr

SharePoint Foundation 2013 Installation & konfiguration

SharePoint Foundation 2013 Installation & konfiguration [Geben Sie Text ein] SharePoint Foundation 2013 Installation & konfiguration SharePoint Foundation 2013 Installation & konfiguration Inhalt Windows Server Vorbereitung... 2 SharePoint Foundation 2013 Softwarevoraussetzungen

Mehr

Proxmox VE - mit OpenSource Virtualisierung leicht gemacht

Proxmox VE - mit OpenSource Virtualisierung leicht gemacht Proxmox VE - mit OpenSource Virtualisierung leicht gemacht Was ist Proxmox VE? Das VE steht für Virtualisierungs Environment, also eine Software um Rechner zu virtualisieren und diese auch zu verwalten

Mehr

Reporting Services und SharePoint 2010 Teil 1

Reporting Services und SharePoint 2010 Teil 1 Reporting Services und SharePoint 2010 Teil 1 Abstract Bei der Verwendung der Reporting Services in Zusammenhang mit SharePoint 2010 stellt sich immer wieder die Frage bei der Installation: Wo und Wie?

Mehr

NAS 251 Einführung in RAID

NAS 251 Einführung in RAID NAS 251 Einführung in RAID Ein Speicher-Volume mit RAID einrichten A S U S T O R - K o l l e g Kursziele Nach Abschluss dieses Kurses sollten Sie: 1. Ü ber ein grundlegendes Verständnis von RAID und seinen

Mehr

Tapps mit XP-Mode unter Windows 7 64 bit (V2.0)

Tapps mit XP-Mode unter Windows 7 64 bit (V2.0) Tapps mit XP-Mode unter Windows 7 64 bit (V2.0) 1 Einleitung... 2 2 Download und Installation... 3 2.1 Installation von WindowsXPMode_de-de.exe... 4 2.2 Installation von Windows6.1-KB958559-x64.msu...

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

Ora Education GmbH. Lehrgang: Oracle Application Server 10g R2: Administration II

Ora Education GmbH. Lehrgang: Oracle Application Server 10g R2: Administration II Ora Education GmbH www.oraeducation.de info@oraeducation.de Lehrgang: Oracle Application Server 10g R2: Administration II Beschreibung: Die Teilnehmer lernen verschiedene Topologien des Oracle Application

Mehr

4D Server v12 64-bit Version BETA VERSION

4D Server v12 64-bit Version BETA VERSION 4D Server v12 64-bit Version BETA VERSION 4D Server v12 unterstützt jetzt das Windows 64-bit Betriebssystem. Hauptvorteil der 64-bit Technologie ist die rundum verbesserte Performance der Anwendungen und

Mehr

DDBAC-SDK unter Linux (mit Wine) Installationsanleitung

DDBAC-SDK unter Linux (mit Wine) Installationsanleitung DDBAC-SDK unter Linux (mit Wine) Installationsanleitung Installation von Wine Einleitung Übersicht Titel Thema Datei DDBAC-SDK unter Linux (mit Wine) Installationsanleitung DDBAC_Wine_Installation.doc

Mehr

KURZANLEITUNG CLOUD BLOCK STORAGE

KURZANLEITUNG CLOUD BLOCK STORAGE KURZANLEITUNG CLOUD BLOCK STORAGE Version 1.12 01.07.2014 SEITE _ 2 INHALTSVERZEICHNIS 1. Einleitung......Seite 03 2. Anlegen eines dauerhaften Block Storage...Seite 04 3. Hinzufügen von Block Storage

Mehr

sedex-client Varianten für den Betrieb in einer hoch verfügbaren

sedex-client Varianten für den Betrieb in einer hoch verfügbaren Département fédéral de l'intérieur DFI Office fédéral de la statistique OFS Division Registres Team sedex 29.07.2014, version 1.0 sedex-client Varianten für den Betrieb in einer hoch verfügbaren Umgebung

Mehr

Leitfaden für die Installation der Videoüberwachung C-MOR

Leitfaden für die Installation der Videoüberwachung C-MOR Dieser Leitfaden zeigt die Installation der C-MOR Videoüberwachung als VM mit der freien Software VirtualBox von Oracle. Die freie VM Version von C-MOR gibt es hier: http://www.c-mor.de/download-vm.php

Mehr

Verfügbarkeit von Applikationen und Failover Szenarien. Winfried Wojtenek. wojtenek@mac.com

Verfügbarkeit von Applikationen und Failover Szenarien. Winfried Wojtenek. wojtenek@mac.com Verfügbarkeit von Applikationen und Failover Szenarien Winfried Wojtenek wojtenek@mac.com Verfügbarkeit % Tage Stunden Minuten 99.000 3 16 36 99.500 1 20 48 99.900 0 9 46 99.990 0 0 53 99.999 0 0 5 Tabelle

Mehr

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar!

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar! Clouds Wolkig bis Heiter Erwartungen der Nutzer Er ist verwöhnt! Verfügbarkeit Viele Anwendungen Intuitive Interfaces Hohe Leistung Er ist nicht dankbar! Mehr! Mehr! Mehr! Moore 1 Erwartungen der Entwickler

Mehr

Oracle EngineeredSystems

Oracle EngineeredSystems Oracle EngineeredSystems Überblick was es alles gibt Themenübersicht Überblick über die Engineered Systems von Oracle Was gibt es und was ist der Einsatzzweck? Wann machen diese Systeme Sinn? Limitationen

Mehr

Visualisierung der Eidolon Auswertung. VisEiA. Graphischer Client für das Emailspiel Eidolon

Visualisierung der Eidolon Auswertung. VisEiA. Graphischer Client für das Emailspiel Eidolon Visualisierung der Eidolon Auswertung VisEiA Graphischer Client für das Emailspiel Eidolon Entstanden im Ramen einer Seminararbeit in Informatik Universität Fribourg, Schweiz david.buchmann@gmx.net http://getit.at/viseia/

Mehr

Avira Management Console AMC Serverkonfiguration zur Verwaltung von Online-Remote-Rechnern. Kurzanleitung

Avira Management Console AMC Serverkonfiguration zur Verwaltung von Online-Remote-Rechnern. Kurzanleitung Avira Management Console AMC Serverkonfiguration zur Verwaltung von Online-Remote-Rechnern Kurzanleitung Inhaltsverzeichnis 1. Allgemeine Informationen... 3 2. Netzwerkübersicht... 3 3. Konfiguration...

Mehr

Version 2.0.1 Deutsch 28.10.2014

Version 2.0.1 Deutsch 28.10.2014 Version.0. Deutsch 8.0.04 In diesem HOWTO wird beschrieben wie Sie die Performance der IAC-BOX und damit auch die Ihres Netzwerks optimieren können. Inhaltsverzeichnis.... Hinweise.... Hardware... 3..

Mehr

Installieren und Einrichten von VirtualBox für TAPPS (V1.0)

Installieren und Einrichten von VirtualBox für TAPPS (V1.0) Installieren und Einrichten von VirtualBox für TAPPS (V1.0) 1 Einleitung... 2 2 Download und Installation... 2 3 Einrichten von VirtualBox am Beispiel Windows XP... 7 4 Einrichten von Windows XP... 26

Mehr

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2 Seminar Cloud Data Management WS09/10 Tabelle1 Tabelle2 1 Einführung DBMS in der Cloud Vergleich verschiedener DBMS Beispiele Microsoft Azure Amazon RDS Amazon EC2 Relational Databases AMIs Was gibt es

Mehr

Linux gefahrlos testen

Linux gefahrlos testen Seite 1 von Cage Linux gefahrlos testen In diesem Artikel wird beschrieben, wie man Linux in einer virtuellen Maschine unter Windows installiert. 1 Grundlegende Informationen Um diesen Artikel zu verstehen,

Mehr

Virtual Machines. Peter Schmid 21.12.2007. Hochschule für Technik Zürich Master of Advanced Studies, Informatik

Virtual Machines. Peter Schmid 21.12.2007. Hochschule für Technik Zürich Master of Advanced Studies, Informatik Hochschule für Technik Zürich Master of Advanced Studies, Informatik 21.12.2007 Outline Einführung 1 Einführung Definition, Abgrenzung Geschichtlicher Rückblick 2 Virtualisierungstechnologien Terminologie

Mehr

Unterrichtseinheit 7

Unterrichtseinheit 7 Unterrichtseinheit 7 Freigegebene Ordner: Durch freigegebene Ordnern können Benutzer Zugriff auf Dateien und Ordner innerhalb eines Netzwerkes (auch bei verstreut gespeicherten Daten, mit Hilfe des Distributed

Mehr

Anleitung zur Redisys Installation. Inhaltsverzeichnis

Anleitung zur Redisys Installation. Inhaltsverzeichnis Anleitung zur Redisys Installation Inhaltsverzeichnis Inhaltsverzeichnis... 1 1. Vorwort... 2 2. Vorbereitung zur Installation... 3 3. Systemvoraussetzungen... 4 4. Installation Redisys Version... 5 5.

Mehr

peer-to-peer Dateisystem Synchronisation

peer-to-peer Dateisystem Synchronisation Ziel Realisierungen Coda Ideen Fazit Literatur peer-to-peer Dateisystem Synchronisation Studiendepartment Informatik Hochschule für Angewandte Wissenschaften Hamburg 30. November 2007 Ziel Realisierungen

Mehr

2 Virtualisierung mit Hyper-V

2 Virtualisierung mit Hyper-V Virtualisierung mit Hyper-V 2 Virtualisierung mit Hyper-V 2.1 Übersicht: Virtualisierungstechnologien von Microsoft Virtualisierung bezieht sich nicht nur auf Hardware-Virtualisierung, wie folgende Darstellung

Mehr

2 Datei- und Druckdienste

2 Datei- und Druckdienste Datei- und Druckdienste 2 Datei- und Druckdienste Lernziele: Verteiltes Dateisystem (DFS) Dateiserver Ressourcen Manager (FSRM) Verschlüsseln Erweiterte Überwachung Prüfungsanforderungen von Microsoft:

Mehr

EXPANDIT. ExpandIT Client Control Kurzanleitung. utilities. be prepared speed up go mobile. Stand 14.11.07

EXPANDIT. ExpandIT Client Control Kurzanleitung. utilities. be prepared speed up go mobile. Stand 14.11.07 ExpandIT Client Control Kurzanleitung Stand 14.11.07 Inhaltsverzeichnis ExpandIT Client Control 3 Installationshinweise 3 System-Voraussetzungen 3 Installation 3 Programm starten 6 Programm konfigurieren

Mehr

Patagonia - Ein Mehrbenutzer-Cluster für Forschung und Lehre

Patagonia - Ein Mehrbenutzer-Cluster für Forschung und Lehre Patagonia - Ein Mehrbenutzer-Cluster für Forschung und Lehre Felix Rauch Christian Kurmann, Blanca Maria Müller-Lagunez, Thomas M. Stricker Institut für Computersysteme ETH Zürich Eidgenössische Technische

Mehr

Partitionieren und Formatieren

Partitionieren und Formatieren Partitionieren und Formatieren Auf eine Festplatte werden Partitionen angelegt, damit Daten an verschiedenen (relativ) unabhängigen Orten gespeichert werden können oder dass mehrere unabhängige Betriebssysteme

Mehr

Network-Attached Storage mit FreeNAS

Network-Attached Storage mit FreeNAS Network-Attached Storage mit FreeNAS Diese Anleitung zeigt das Setup eines NAS-Servers mit FreeNAS. FreeNAS basiert auf dem OS FreeBSD und unterstützt CIFS (samba), FTP, NFS, RSYNC, SSH, lokale Benutzer-Authentifizierung

Mehr

ZFS Filesystem und KVM-Virtualisierung

ZFS Filesystem und KVM-Virtualisierung ZFS Filesystem und KVM-Virtualisierung ZFS on Linux auf Proxmox VE Wolfgang Link Proxmox 07.05.05 Proxmox Server Solutions GmbH Proxmox Mail Gateway (commercial license) Proxmox VE (Open Source) Weltweites

Mehr

Lokales DS-VDR-Tool Instalationshandbuch

Lokales DS-VDR-Tool Instalationshandbuch Lokales DS-VDR-Tool Instalationshandbuch v12.0 [Revisionsdatum: 15. Oktober 2012] Seite: 1 Annahmen Es wird folgendes hinsichtlich der Leserschaft dieses Dokuments angenommen: Kenntnisse: Der Anwender

Mehr

Abb. 1: Schematische Architektur WebLogic-Server

Abb. 1: Schematische Architektur WebLogic-Server Forms 11g im Weblogic-Server Vertrautes in neuem Gewand Stephan La Rocca TEAM GmbH Paderborn Schlüsselworte: Oracle Weblogic Server, Forms 11g, Administration, Konfiguration, New Features. Einleitung Mit

Mehr

GeoShop Netzwerkhandbuch

GeoShop Netzwerkhandbuch Technoparkstrasse 1 8005 Zürich Tel.: 044 / 350 10 10 Fax.: 044 / 350 10 19 GeoShop Netzwerkhandbuch Zusammenfassung Diese Dokumentation beschreibt die Einbindung des GeoShop in bestehende Netzwerkumgebungen.

Mehr

Ceph. Distributed Storage Julian mino Klinck GPN15-05.06.2015

Ceph. Distributed Storage Julian mino Klinck GPN15-05.06.2015 Distributed Storage Julian mino Klinck GPN15-05.06.2015 Julian mino! Interessen: Netzwerke # Karlsruhe Hardware $ gpn15@lab10.de Cocktails " twitter.com/julianklinck Hacking Musik- und Lichttechnik 2 Julian

Mehr

GlobalHonknet.local. Implementieren von IPSec - Verschlüsselung im Netzwerk 27.03.2004 05.04.2004

GlobalHonknet.local. Implementieren von IPSec - Verschlüsselung im Netzwerk 27.03.2004 05.04.2004 GlobalHonknet.local 1 von 37 GlobalHonknet.local 13158 Berlin Implementieren von IPSec - Verschlüsselung im Netzwerk Einrichten der Verschlüsselung unter Verwendung einer PKI 27.03.2004 05.04.2004 GlobalHonknet.local

Mehr

lobodms.com lobo-dms Systemvoraussetzungen

lobodms.com lobo-dms Systemvoraussetzungen lobodms.com lobo-dms Inhaltsverzeichnis 1 Allgemeines... 3 1.1 Betriebssystem... 3 1.2 Windows Domäne... 3 1.3 Dateisystem... 3 2 Server... 3 2.1 Hardware... 4 2.2 Betriebssystem... 4 2.3 Software... 4

Mehr

Auf der Homepage steht

Auf der Homepage steht Auf der Homepage steht VirtualBox is a powerful x86 and AMD64/Intel64 virtualization product for enterprise as well as home use. Not only is VirtualBox an extremely feature rich, high performance product

Mehr

Infrastrukturanalyse Ihr Weg aus dem Datenstau

Infrastrukturanalyse Ihr Weg aus dem Datenstau Waltenhofen * Düsseldorf * Wiesbaden Infrastrukturanalyse Ihr Weg aus dem Datenstau SCALTEL Webinar am 20. Februar 2014 um 16:00 Uhr Unsere Referenten Kurze Vorstellung Stefan Jörg PreSales & Business

Mehr