7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim

Größe: px
Ab Seite anzeigen:

Download "7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim"

Transkript

1 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS2011 1/49 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim Christian Baun, Viktor Mauch Karlsruher Institut für Technologie Steinbuch Centre for Computing [baun

2 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS2011 2/49 Heute Lösungen zum Betrieb von Infrastrukturdiensten Schwerpunkte: Eucalyptus und OpenNebula Lösungen zum Betrieb von Plattformdiensten Schwerpunkte: AppScale und typhoonae

3 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS2011 3/49 Heute Cluster-Computing Entwicklung des Cluster-Computing Unterscheidungskriterien Aufbau (homogen, heterogen) Aufstellungskonzept (Glass-House, Campus-Wide) Einsatzgebiete High Availability Clustering High Performance Clustering High Throughput Clustering Skalierbare Cluster Verhalten beim Ausfall von Knoten (Active/Passive, Active/Active) Aktueller Stand Vorteile und Nachteile von Clustern Bibliotheken für Cluster-Anwendungen (PVM, MPI) Gearman

4 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS2011 4/49 Entwicklung des Cluster-Computing 1983: Digital Equipment Corporation (DEC) bietet für seine VAX-11 die Clusterlösung (VAXcluster) an, um mehrere Rechner über eine serielle Verbindung zusammenzuschließen Durch den Zusammenschluss mehrerer VAXen kann auf deren Rechenleistung und Speicherplatz zugegriffen werden, als würde es sich dabei um einen einzelnen Rechner handeln 1987: DEC verkauft mit VAX 8974 und VAX 8978 komplette Cluster, die aus 4 oder 8 Knoten und einer MicroVAX II als Steuerkonsole bestehen Mehr Informationen unter: VAXcluster Systems. Digital Technical Journal. Number 5. September

5 VAXcluster Quelle: Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS2011 5/49

6 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS2011 6/49 Entwicklung des Cluster-Computing Anfang der 90er Jahre Etablierung der Client/Server-Architektur UNIX-Workstations halten in Unternehmen und Hochschulen Einzug Eine Workstation ist im Arbeitsalltag nur zu 5-10% ausgelastet Der größte Teil ihrer potentiellen Rechenleistung ist ungenutzt Gesucht: Eine Middleware, die eine Nutzung der freien Rechenleistung zur Bewältigung komplexer Aufgaben ermöglicht PVM und MPI definieren beide einen Message Passing Layer unabhängig von der Architektur der Knoten und ermöglichen die Entwicklung von Cluster-Anwendungen Mitte der 90er Jahre Cluster aus Standard-PCs werden zunehmend populär Cluster bieten je nach Ausstattung und Aufbau eine sehr hohen Rechenleistung und/oder Verfügbarkeit zu im Vergleich zu Mainframes geringen Preisen Flexibilität bzgl. Einsatzzweck und Systemerweiterungen

7 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS2011 7/49 Definition Cluster-Computing Cluster-Computing Clustering ist paralleles Rechnen auf Systemen mit verteiltem Speicher Ein Cluster besteht aus mindestens zwei Knoten Jeder Knoten ist ein eigenständiges Rechnersystem Knoten sind durch ein Netzwerk miteinander verbunden In Clustern mit wenigen Knoten kommen aus Kostengründen Standard-Netzwerktechnologien (Fast- oder Giga-Ethernet) zum Einsatz Bei größeren Clustern mit mehreren hundert Knoten sind Hochgeschwindigkeitsnetzwerke notwendig Häufig sind die Knoten unter der Kontrolle eines Masters und arbeiten auf einem gemeinsamen Datenbestand Knoten können gewöhnliche PCs aus Standardkomponenten, Workstations, Servern oder Supercomputer sein Anwender sehen nur ein einzelnes System, ein virtueller Uniprozessor Idealerweise wissen die Anwender gar nicht, dass es sich bei dem System, auf dem sie arbeiten, um einen Cluster handelt

8 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS2011 8/49 Feierabendcluster Stehen die Knoten dem Cluster nur zu bestimmten Zeiten zur Verfügung, spricht man von Feierabendclustern, Cluster of Workstations (COWs) oder Network of Workstations (NOWs) Die Knoten eines Feierabendclusters werden während der üblichen Arbeitszeiten als normale Arbeitsrechner eingesetzt Dieses Konzept war um das Jahr 2000 populär. Heute unüblich Interessante Quelle: Oliver Diedrich, NT-Workstations als Feierabend-Cluster, c t 22/2000, S.246 Mehr als 200 Rechner der Kategorie Pentium-II/III mit mindestens 64 MByte RAM im Kunststofflabor der BASF in Ludwigshafen Alle Rechner sind zentral administriert und laufen mit Windows NT 4.0 Auf jedem Rechner läuft ein WinSock-Server als Dienst rund um die Uhr Empfängt er eine Anfrage vom Zentralrechner, bestätigt die Anfrage, lässt sich vom Zentralrechner über TCP/IP eine 10 bis 100 KB große Datei mit den Daten für die Berechnung schicken War die Datenübertragung erfolgreich, verrechnet er die Daten und schickt die Ergebnisse anschließend an den Zentralrechner zurück

9 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS2011 9/49 Unterscheidungskriterien von Clustern Aufbau Homogener Aufbau Heterogener Aufbau Aufstellungskonzept Glass-House Campus-Wide Einsatzgebiet High Performance Clustering High Availability Clustering High Throughput Clustering Verhalten beim Ausfall von Knoten Active/Passive-Cluster Active/Active-Cluster

10 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Homogene und Heterogene Cluster Cluster können homogen und heterogen aufgebaut sein

11 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Aufstellungskonzepte von Clustern Glass-House: Der Cluster findet sich in einem speziell dafür reservierten Raum oder Server-Schrank (englisch: Rack) Vorteile: Schnelle Erreichbarkeit aller Komponenten für Wartung und Fehlerbehebung. Knoten können mit Hochgeschwindigkeitsnetzwerken verbunden werden. Höhere Sicherheit gegen Sabotage Nachteile: Bei einem Stromausfall oder Brand im Gebäude ist der Betrieb des gesamten Clusters gefährdet Campus-Wide: Die Knoten befinden sich in mehreren Gebäuden, verteilt auf das Gelände des Instituts oder Unternehmens Häufig nur wenige, gespiegelte Standorte Selten Network of Workstations oder Feierabendcluster. Die Knoten übernehmen nur in der arbeitsfreien Zeit die Rolle von Cluster-Knoten Vorteile: Der Cluster ist kaum zu zerstören Nachteile: Es können keine Hochgeschwindigkeitsnetzwerke verwendet werden. Häufig sind die Knoten unterschiedlich aufgebaut

12 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Aufstellungskonzept Glass-House

13 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Aufstellungskonzept Campus-Wide

14 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Einsatzgebiete von Clustern Cluster existieren für unterschiedliche Einsatzgebiete High Availability Clustering (HA) High Performance Clustering (HPC) High Throughput Clustering (HTC) Ziel: hohe Verfügbarkeit Ziel: hohe Rechenleistung Ziel: hoher Datendurchsatz

15 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 High Availability Clustering (1) Beim High Availability Clustering sind Systeme mit einer hohen Ausfallsicherheit, also Verfügbarkeit, gefordert. Erreicht wird das durch: Redundanz der Knoten und ihrer Komponenten Ausschließen eines Single Point of Failure Redundanz Redundanz kommt von dem lateinischen Begriff redundare und bedeutet wörtlich übersetzt, dass etwas im Überfluss vorhanden ist Enthält ein System Komponenten, die zur Arbeit des Systems nicht notwendig sind, aber die Arbeit von baugleichen Komponenten im Fehlerfall übernehmen, bedeutet dies Redundanz Durch redundanten Einsatz der Knoten besteht die Möglichkeit, die Technik und Vorteile der Mainframes zu einem günstigen Preis nachzubilden und dennoch eine hohe Flexibilität zu erhalten

16 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Verfügbarkeit Die Verfügbarkeit eines Systems berechnet sich aus der mittleren Betriebszeit (Mean Time Between Failures), geteilt durch die Summe aus mittlerer Betriebszeit und mittlerer Ausfallzeit (Mean Time To Repair) Verfügbarkeit = Mittlere Betriebszeit Mittlere Betriebszeit + Mittlere Ausfallzeit Um eine hohe Verfügbarkeit des Clusters zu gewährleisten, genügt es nicht, die Knoten und deren Hardware redundant auszulegen Unterbrechungsfreie Stromversorgung durch USVs Schutz vor fehlerhafter Bedienung und Sabotage Bei Systemen, die als ausfallsicher deklariert werden, muss jederzeit ein Ersatzrechner zur Verfügung stehen, der im Fehlerfall einspringen und die angebotenen Dienste weiter zur Verfügung stellen kann

17 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 High Availability Clustering (2) Beim Clustering für Verfügbarkeit hat nicht die Verfügbarkeit der Knoten Priorität, sondern die Verfügbarkeit der angebotenen Dienste Es existieren zwei Gruppen von Hochverfügbarkeits-Clustern, die sich in ihrem Verhalten bei Ausfällen von Knoten unterscheiden: Active/Passive-Cluster Active/Active-Cluster

18 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 HA-Clustering Active/Passive und Active/Active Active/Passive-Cluster (nennt man auch Hot-Standby-Cluster) Im Normalbetrieb ist mindestens ein Knoten im Zustand Passiv Knoten im Zustand Passiv übernehmen im Normalbetrieb keine Dienste Fällt ein Knoten aus, übernimmt ein Passiv-Knoten dessen Dienste Die Übernahe eines Dienstes durch einen Knoten von einem ausgefallenen Knoten wird als Failover bezeichnet Vorteil: Die Dienste müssen nicht für Cluster-Betrieb ausgelegt sein Nachteil: Viel potentielle Leistung bleibt im Normalbetrieb ungenutzt Active/Active-Cluster Auf allen Knoten laufen die gleichen Dienste Alle Knoten sind im Zustand Aktiv Fallen Knoten aus, müssen die noch aktiven Knoten deren Aufgaben mit übernehmen Vorteil: Bessere Lastverteilung zwischen den Knoten Nachteil: Dienste müssen für den Betrieb im Cluster ausgelegt sein, da zeitgleich alle Knoten auf die gleichen Ressourcen (Daten!) zugreifen

19 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 High Availability Clustering Failover und Failback Failover Als Failover bezeichnet man die Fähigkeit, beim Ausfall eines Knotens alle Aufgaben automatisch einem anderen Knoten zu übergeben und so die Ausfallzeit zu minimieren Die Failover-Funktionalität wird gewöhnlich vom eingesetzten Betriebssystem zur Verfügung gestellt Ein Beispiel ist Heartbeat für Linux Failback Sind ausgefallene Knoten wieder einsatzbereit, melden sich diese am Lastverteiler zurück und erhalten wieder Jobs Der Cluster verfügt ab diesem Zeitpunkt wieder über die gleiche Leistungsfähigkeit, die er vor dem Ausfall der Knoten hatte Dieses Verhalten wird als Failback bezeichnet

20 Split Brain Split Brain bezeichnet die Trennung der Kommunikation zwischen Knoten, obwohl die Rechner selbst einwandfrei funktionieren Kontrollprogramme wie Heartbeat gehen davon aus, dass es zum Ausfall von Knoten kam Jeder Node erklärt sich zum Primary Node Bei Active/Passive-Clustern führt das zum Ausfall des Clusters bzw. der angebotenen Dienste Bei gemeinsamem Speicher versucht jeder Knoten auf den Speicher zu schreiben Kann durch zusätzliche Hardware und die Unterscheidung der MAC-Adressen verhindert werden Werden zeitgleiche Zugriffsversuche von unterschiedlichen MAC-Adressen erkannt, werden Knoten automatisch abgeschaltet Bei verteiltem Speicher verteilen sich die Schreibzugriffe und es enstehen unterschiedliche Datenbestände Die Konsistenz der Daten ist nicht mehr gewährleistet Eine Reperatur ist schwierig (zeitaufwendig) bis unmöglich Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49

21 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Architekturen beim High Availability Clustering Es existieren zwei Architekturen beim Clustering for Availability: Shared Nothing Shared Disk Beide Architekturen entstanden aus der Problematik, dass beim Clustering for Availability die gleichzeitige Nutzung von Ressourcen durch mehr als einen Knoten notwendig ist

22 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Shared Nothing Architektur Bei Shared Nothing hat jeder Knoten eine eigene Speicherressource fester Größe Auch wenn eine Ressource physikalisch mit mehreren Knoten verbunden ist, hat doch immer nur ein Knoten Zugriff darauf Kein Knoten hat Zugriff auf die Ressourcen eines anderen Knotens Erst beim Auftreten eines Fehlers bei einem Knoten wird die Ressource von einem anderen Knoten übernommen Vorteil: Es ist kein Lock-Management nötig Kein Protokolloverhead verringert die Leistung Der Cluster kann theoretisch fast linear skalieren Nachteil: Höhere Investitionen in Speicherressourcen sind notwendig, da die Daten nicht optimal verteilt werden können Cluster mit Windows-Betriebssystemen sind immer Shared Nothing

23 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Shared Nothing mit DRBD (1) Distributed Replicated Block Device (DRBD) ist eine freie Software zum Aufbau eines Netzwerk-Speichers für Shared Nothing Cluster ohne kostspieliges Storage Area Network (SAN) Ein gemeinsamer Speicher ist immer auch ein Single Point of Failure, da nur die Cluster-Knoten wirklich redundant ausgelegt sind Redundante SAN-Lösungen sind teuer (sechsstellig) Funktionsweise Es gibt einen Primary Server und einen Secondary Server Schreibzugriffe werden an den Secondary Server übermittelt Erst wenn der Secondary Server den erfolgreichen Schreibvorgang an den Primary Server gemeldet hat, meldet dieser das Ende des Schreibvorgangs Quasi RAID-1 über TCP Fällt der Primary Server aus, wird der Secondary Server Primary Fährt ein ausgefallenes System wieder hoch, werden nur während des Ausfalls geänderte Datenblöcke resynchronisiert Lesezugriffe sind immer lokal (gut für die Performance)

24 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Shared Nothing mit DRBD (2) Da DRBD innerhalb des Linux-Kernels auf Blockebene arbeitet, ist das System für die darauf aufsetzenden Schichten transparent DRBD kann als Grundlage dienen für: Konventionelle Dateisysteme wie ext3/4 oder ReiserFS Shared-Storage-Dateisysteme wie Oracle Cluster File System (OCFS2) und Global File System (GFS2) Bei Shared-Storage-Dateisystemen müssen alle Knoten direkten I/O-Zugriff auf das Gerät haben Ein weiteres logisches Blockgerät wie den Logical Volume Manager (LVM) DRBD ist Bestandteil des Linux-Kernels seit Version Guter Artikel zum Thema DRBD: ix 3/2010, Florian Haas, Hochverfügbare Shared Nothing Cluster mit DRBD, S

25 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Shared Disk Architektur Bei Shared Disk hat jeder Knoten Zugriff auf jede am Cluster angeschlossene Speicherressource Um die Knoten mit dem Speicher zu verbinden, existieren verschiedene Möglichkeiten: SAN (Storage Area Network) Teuer und leistungsfähig Stellen Blockgeräte über das Netzwerk zur Verfügung NAS (Network Attached Storage) Einfach zu bedienende Dateiserver Stellen Laufwerke mit Dateisystemen über das Netzwerk zur Verfügung Können auch als reine Software-Lösung realisiert werden Beispiele sind FreeNAS und Openfiler iscsi (Internet Small Computer System Interface) Ermöglicht die Nutzung des SCSI-Protokolls über TCP/IP SAN-artiger Zugriff via IP-Netzwerk

26 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 High Performance Clustering (1) Bei High Performance Clustering ist eine möglichst hohe Rechenleistung das Ziel Wird auch Clustering for Scalability genannt High Performance Cluster erbringen die Leistung von Großrechnern (Mainframes) zu einem deutlich günstigeren Preis Diese Cluster bestehen in der Regel aus handelsüblichen PCs oder Workstations Typtische Anwendungsbereiche: Pipelineberechnungen: Haben eine Sequenz als Ergebnis Anwendungen, die dem Prinzip des Divide und Conquer folgen Diese bilden mehrere Teilprobleme, werten diese aus und bilden aus den Ergebnissen das Endergebnis Anwendungen, die dazu dienen, sehr große Datenbestände auszuwerten

27 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 High Performance Clustering (2) Anwendungsbeispiele: Crash-Test-Simulation, Wettervorhersagen, Optimierung von Bauteilen, Monte-Carlo-Simulationen, Flugbahnberechnungen, Data Mining, Strömungsberechnungen, Festigkeitsanalysen, Berechnung von Filmen oder Filmsequenzen, Simulationen des Sternenhimmels, Variantenberechnung beim Schach, Primzahlberechnungen, usw. Vorteile: Geringer Preis und Herstellerunabhängigkeit Defekte Komponenten sind schnell und kostengünstig zu beschaffen Zusätzliche Knoten steigern die Leistung schnell und einfach Nachteil: Hoher Administrations- und Wartungsaufwand gegenüber Großrechnern

28 Wird Linux oder ein anderes freies Betriebssystem verwendet, handelt es sich um einen Beowulf-Cluster Wird Windows verwendet, bezeichnet man den Cluster als Wulfpack Beowulf-Cluster sind keine Feierabendcluster Sie bestehen zwar aus gewöhnlichen PCs oder Workstations, doch dienen die Knoten eines Beowulf-Cluster ausschließlich der Arbeit des Clusters Bedienung des Clusters erfolgt über einen Master-Knoten Dieser übernimmt auch die Verteilung (Scheduling) der Jobs Die Knoten (Worker Nodes) verfügen in der Regel über keine Eingabe-/Ausgabemöglichkeiten wie Monitor und Tastatur, sondern nur über die Netzwerkverbindung Die Knoten bestehen aus Standard-PC-Komponenten und sind nicht redundant, also auf hohe Verfügbarkeit ausgelegt Eine Gefahrenquelle ist die Kühlung der System-Komponenten Die Lüfter in den Knoten und Netzteilen haben nur eine begrenzte Lebensdauer und fallen ohne Vorwarnung aus Aktuelle Prozessoren funktionieren nicht ohne ausreichende Kühlung Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 High Performance Clustering Beowulf-Cluster

29 Stone SouperComputer (1) Bilder: forrest/linux-magazine-1999/ Beispiel für einen Beowulf-Cluster aus ausrangierten Bürocomputern Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49

30 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Stone SouperComputer (2) Aufgebaut 1997 Überwiegend Intel 486DX-2/66 CPUs Einige Pentiums 10 Mbit/s Ethernet RedHat Linux, MPI und PVM Extrem heterogener Aufbau Keine Anschaffungskosten Hoher Aufwand für Aufbau und Administration Alles reine Handarbeit

31 Beowulf-Cluster heute (1) Bild: Anbieter wie Megware aus Chemnitz verkaufen fertige Beowulf-Cluster Im Bild: Chemnitzer LInux Cluster (CLIC) aus dem Jahr 2000 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49

32 Beowulf-Cluster heute (2) Bild: Tina (Tina is no acronym) in Magdeburg aus dem Jahr 2001 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49

33 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 High Throughput Clustering Das Ziel des High Throughput Clustering ist, den Datendurchsatz zu maximieren Diese Cluster bestehen aus Servern, die einen Lastverbund bilden In solchen Clustern werden keine umfangreichen Berechnungen durchgeführt Die Aufträge müssen nicht in Teilaufträge unterteilt werden Die einzelnen Aufträge sind klein und könnten auch von einem einzelnen PC bewältigt werden Typische Einsatzgebiete im High Throughput Clustering: Web-Server Suchmaschinen im Internet Wenige große Rechenaufträge = High Performance Cluster Viele kleinere Aufträge in kurzer Zeit = High Throughput Cluster

34 Skalierbare Cluster Skalierbare Cluster sind ein Kompromiss zwischen hoher Rechenleistung oder hohem Durchsatz und Hochverfügbarkeit Einige oder alle Knoten sind redundant ausgelegt In den meisten Fällen handelt es sich um Web- oder Mail-Server Clients Knoten 1 Knoten 2 Überwachung Lastverteiler Internet Überwachung Knoten 3 Knoten 4 Knoten 1 und 2, sowie Knoten 3 und 4 überwachen sich gegenseitig So kann beim Ausfall immer ein Knoten die Dienste des ausgefallenen Knotens übernehmen Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49

35 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Heute: Cluster in Universitäten Quelle: amit/research/beowulf/ Beowulf-Cluster aus Standardhardware (günstig in der Beschaffung) Aufwendige Administration (Handarbeit) durch sog. Ehda-Leute

36 Heute: Forschung und Industrie (Beispiel: HP C7000) Quelle: Kompakte Blade-Systeme oder sog. Pizza-Boxen Professionelle Management Werkzeuge und redundante Komponenten erleichtern die Administration Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49

37 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Rechenbeispiel zur heute möglichen Packungsdichte In einen 19 Zoll Schrank passen 4 BladeCenter Ein HP C7000 BladeCenter hat 16 Blade-Einschübe Es existieren sog. Doppel-Blades z.b. HP Blade ProLiantBL2x220c G5 2 Server pro Blade. Komplett unabhängige Rechner Pro Rechner 2x Intel Quad-Core Xeon (2,33 GHz) mit 16 GB RAM = 8 Cores pro Rechner = 16 Cores pro Blade = 256 Cores pro BladeCenter = 1024 Cores pro 19 Zoll Schrank Entwicklung in der Gegenwart und Zukunft Die Packungsdichte nimmt zu. Es sind bereits Intel Xeon Prozessoren mit 6 Cores (Dunnington) und mit 8 Cores verfügbar (Nehalem-EX) verfügbar. AMD bietet den Opteron (Magny-Cours) mit 12 Cores an

38 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Klassifikationen von Clustern Cluster High Availability Cluster (HA) (Ziel: Verfügbarkeit) skalierbare Cluster (Ziel: Geschwindigkeit und Verfügbarkeit) High Performance Cluster (HPC) (Ziel: Geschwindigkeit) High Throughput Cluster (HTC) (Ziel: Durchsatz) Active/Passive- Cluster Active/Active- Cluster COW/NOW (Feierabendcluster) reine HPC-Cluster (Hot-Standby) Beowulf (OpenSource) Wulfpack (Windows)

39 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Vorteile und Nachteile von Clustern Vorteile: Flexibilität und Erweiterbarkeit. Ein Cluster kann dynamisch dem Bedarf entsprechend vergrößert oder verkleinert werden Kostengünstiger in der Anschaffung als Supercomputer Einfache Wiederbeschaffung von Standardkomponenten Nachteile: Fehleranfälliger als ein einzelner Supercomputer Cluster bestehen aus vielen eigenständigen Systemen höherer Administrationsaufwand und damit Personalaufwand als beim Einsatz von einem oder einigen wenigen Supercomputern Hoher Aufwand zum Verteilen und Kontrollieren von Anwendungen. Der Aufwand steigt mit zunehmender Anzahl der Knoten

40 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Bibliotheken für Cluster-Anwendungen Um Anwendungen für Cluster zu entwickeln, existieren mehrere Bibliotheken, die von der Architektur und Hardware unabhängiges Message Passing bereitstellen Beim Message Passing auf verteilten Computersystemen basiert die Kommunikation auf dem Versenden von Nachrichten zu Empfängern Die am meisten ausgereiften und am weitesten verbreiteten Message Passing Systeme sind: Parallel Virtual Machine (PVM) Message Passing Interface (MPI)

41 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Bibliotheken für Cluster-Anwendungen (PVM) Parallel Virtual Machine (PVM) Stellt eine einheitliche Programmierschnittstelle bereit, um eine parallele Recheneinheit mit verteiltem Speicher zu erzeugen Unterstützt C/C++ und Fortran 77/90 Besteht aus einem Dämon, Programmbibiliotheken und Software Tools Besonders geeignet für heterogene Umgebungen Konvertiert z.b. automatisch zwischen little endian und big endian Fokus liegt nicht auf Performance, sondern Portabilität

42 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Bibliotheken für Cluster-Anwendungen (MPI) Message Passing Interface (MPI) Geeignet, um einen Parallelrechner mit verteiltem oder gemeinsamem Speicher zu einem virtuellen Parallelrechner zusammenzuschließen Kommunikationsbibliothek für C/C++ und Fortran 77/90 Enthält keinen Dämon Kommunikation wird nachrichtenbasiert übertragen (Message Passing) Besonders geeignet für homogene Umgebungen Fokus liegt auf Performance und Sicherheit Populäre MPI-Implementierungen: LAM/MPI, Open MPI, MPICH, OpenMP

43 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Einfaches MPI-Beispiel (1) Prozessoren beschäftigen # include " mpi.h" # include <stdio.h> int main ( int argc, char ** argv ) { int rank, size ; // MPI - Umgebung starten MPI_Init (& argc, & argv ); // Welche Nummer wir sind in der MPI - Umgebung? MPI_Comm_rank ( MPI_COMM_WORLD, & rank ); // Wie viele Mitglieder hat die MPI - Umgebung? MPI_Comm_size ( MPI_COMM_WORLD, & size ); // Ausgabe aller Mitglieder der MPI - Umgebung printf (" Ich bin Prozessor Nr.%d von %d\n", rank, size ); } // MPI - Umgebung beenden MPI_Finalize (); return 0;

44 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Einfaches MPI-Beispiel (2) Programm kompilieren: $ mpicc -g -o hello_ world hello_ world. c Programmausführung auf dem Cluster starten: $ mpirun - np 5 hello_ world Programmausgabe bei der Auführung auf 5 CPUs: $ mpirun - np 5 hello_ world Ich bin Prozessor Nr.1 von 5 Ich bin Prozessor Nr.3 von 5 Ich bin Prozessor Nr.0 von 5 Ich bin Prozessor Nr.2 von 5 Ich bin Prozessor Nr.4 von 5 Es fällt auf, dass die Reihenfolge der CPUs, die sich melden, zufällig ist. Was könnte der Grund dafür sein?

45 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Gearman Framework für die Entwicklung verteilter Anwendungen Freie Software (BSD License) Unterstützt C, Pearl, PHP, Python, C#, Java,.NET und UNIX-Shell Weist den beteiligten Rechnern eine von drei Rollen zu Clients übergeben Aufträge an die Job-Server Job-Server verteilen Aufgaben der Clients auf den Workern Worker registrieren sich bei Job-Servern und arbeiten Aufträge ab

46 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Gearman Der Name Gearman ist ein Anagramm für Manager Garman verteilt Aufträge und macht sonst selbst nichts sinnvolles Gearman eignet sich nur für sichere private Netzwerke Die Kommunikation erfolgt unverschlüsselt über Port 4730 Es existiert kein Mechanismus zur Authentifizierung der Systeme Unterstützte Datenbanken sind MySQL, PostgreSQL und Dizzle Clients und Worker arbeiten auf gemeinsamen Daten Denkbar sind hier Cluster-Dateisysteme wie GlusterFS oder Protokolle wie NFS oder Samba Guter Artikel zu Gearman Garman verteilt Arbeit auf Rechner im LAN, Reiko Kaps, c t 24/2010, S.192 Auf den folgenden Folien ist eine Beispiel-Anwendung aus dem Artikel

47 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Gearman Beispiel für ein Worker-Skript Client und Worker greifen über /src/media auf eine Freigabe zu Die Freigabe enthält Bilder, die verkleinert werden sollen Das Skalieren geschieht mit ImageMagick convert auf den Workern Shell-Skript resizer-worker.sh #/ bin / bash INFILE ="$1" echo " Converting ${ INFILE } on $HOSTNAME " >> / src / media / g. log convert "${ INFILE }" - resize 1024 "${ INFILE }"-small. jpg Folgendes Kommando registriert das Worker-Skript (-w) beim Job-Server gman-jserver (-h) unter dem Funktionsnamen Resizer (-f) gearman -h gman-jserver -w -f Resizer xargs resizer-worker.sh

48 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Gearman Beispiel für einen Client-Auftrag Folgendes Kommando startet die Bildverarbeitung find / srv / media / bilder -name "*. jpg " \ - exec gearman -b -h gman - jserver -f Resizer {} \; find sucht unter dem Pfad /srv/media/bilder nach JPG-Bildern Der Dateipfad wird mit -exec an den Gearman-Client übergeben Der Client reicht den Dateipfad an den Job-Server weiter, der ihn mit der Funktion Resizer an Worker weiterreicht Der Parameter -b lässt die Aufgaben im Hintergrund laufen und gibt den Gearman-Client sofort wieder frei

49 Christian Baun, Viktor Mauch 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS /49 Nächste Vorlesung Nächste Vorlesung:

7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim

7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim Christian Baun 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim SS2010 1/49 7.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim Christian Baun Forschungszentrum Karlsruhe

Mehr

8.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim

8.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim Christian Baun 8.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim WS1112 1/67 8.Vorlesung Cluster-, Grid- und Cloud-Computing Hochschule Mannheim Christian Baun wolkenrechnen@gmail.com

Mehr

Betriebssysteme (BTS)

Betriebssysteme (BTS) 18.Vorlesung Betriebssysteme (BTS) Christian Baun cray@unix-ag.uni-kl.de Hochschule Mannheim Fakultät für Informatik Institut für Betriebssysteme 21.6.2007 Wiederholung vom letzten Mal Virtualisierung

Mehr

Mit Clustertechnik zu mehr Verfügbarkeit:

Mit Clustertechnik zu mehr Verfügbarkeit: Mit Clustertechnik zu mehr Verfügbarkeit: Überraschend kostengünstig umgesetzt mit Open Source Werner Fischer, Thomas-Krenn.AG Perspektive Open Source Systems 2006 25. Oktober 2006 Folie 1/20 Agenda 1.

Mehr

Hochverfügbarkeit eines Server-Systems Dr. Stephan Pettinger 7-it 1 Hochverfügbarkeit Theorie Definition Hochverfügbarkeit Kopplung von Systemen Single Point of Failure Hochverfügbarkeitscluster Linux-HA-Architektur

Mehr

Hochverfügbare Virtualisierung mit Open Source

Hochverfügbare Virtualisierung mit Open Source Hochverfügbare Virtualisierung mit Open Source Gliederung DRBD Ganeti Libvirt Virtualisierung und Hochverfügbarkeit Hochverfügbarkeit von besonderer Bedeutung Defekt an einem Server => Ausfall vieler VMs

Mehr

Clustering und Failover mit Linux

Clustering und Failover mit Linux Grazer Linux-Tage 2003 25. April Markus Oswald Worum geht es? Load-Balanced Cluster Failover Cluster Shared Storage Computational Cluster Beowulf Distributed Computing Worum es nicht

Mehr

The Unbreakable Database System

The Unbreakable Database System The Unbreakable Database System Real Application Cluster Unterföhring, 04.2005 M. Kühn 1 Comparisson HA - HA Ziele, DataGuard, HA Oracle, RAC RAC Features - Cache Fusion, TAF, Load Balancing RAC on Solaris

Mehr

Red Hat Cluster Suite

Red Hat Cluster Suite Red Hat Cluster Suite Building high-available Applications Thomas Grazer Linuxtage 2008 Outline 1 Clusterarten 2 3 Architektur Konfiguration 4 Clusterarten Was ist eigentlich ein Cluster? Wozu braucht

Mehr

SECURITYDAY.07. Linux Hochverfügbarkeit

SECURITYDAY.07. Linux Hochverfügbarkeit SECURITYDAY.07 Linux Hochverfügbarkeit Werner Fischer Research & Development Thomas-Krenn.AG Thomas Krenn SECURITYDAY.07, 14. November 2007, Freyung 1/25 Agenda 1) Überblick Cluster-Technologien 2) Best

Mehr

Private Cloud mit Eucalyptus am SCC

Private Cloud mit Eucalyptus am SCC Private Cloud mit Eucalyptus am SCC Christian Baun 15. Dezember 2009 KIT The cooperation of Forschungszentrum Karlsruhe GmbH und Universität Karlsruhe (TH) http://www.kit.edu Cloud-Comuting = Grid-Computing?!

Mehr

So erreichen Sie uns:

So erreichen Sie uns: für Das I Ho chp hre in Clus t d erf orm ividu ersy e s ll ant, sic en Be tem dü her und rfnis pre se. isw ert. So erreichen Sie uns: Contabo GmbH Aschauer Straße 32 a 81549 München +49 (0) 89 / 212 683

Mehr

PROLAG WORLD 2.0 PRODUKTBESCHREIBUNG SERVERSYSTEM, CLUSTERSYSTEME FÜR PROLAG WORLD

PROLAG WORLD 2.0 PRODUKTBESCHREIBUNG SERVERSYSTEM, CLUSTERSYSTEME FÜR PROLAG WORLD PROLAG WORLD 2.0 PRODUKTBESCHREIBUNG SERVERSYSTEM, CLUSTERSYSTEME FÜR PROLAG WORLD Inhaltsverzeichnis 1. ZUSAMMENSTELLUNG VON SERVERN...3 1.1. ANFORDERUNGSPROFIL...3 1.2. 1.3. SERVER MODELLE...3 TECHNISCHE

Mehr

Clustering mit Shared Storage. Ing. Peter-Paul Witta paul.witta@cubit.at

Clustering mit Shared Storage. Ing. Peter-Paul Witta paul.witta@cubit.at Clustering mit Shared Storage Ing. Peter-Paul Witta paul.witta@cubit.at Clustering mehrere kleine Rechner leisten gemeinsam Grosses günstige dual intel/amd Server load sharing High Availability combined

Mehr

Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT

Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT Folie 1 VDE-Symposium 2013 BV Thüringen und Dresden Virtualisierung von Leittechnikkomponenten Andreas Gorbauch PSIEnergie-EE Folie

Mehr

Verkürzung von Entwurfszeiten

Verkürzung von Entwurfszeiten Verkürzung von Entwurfszeiten durch Matlab-basiertes HPC R. Fink, S. Pawletta Übersicht aktuelle Situation im ingenieurtechnischen Bereich Multi-SCEs als Konzept zur Verkürzung von Entwurfszeiten Realisierung

Mehr

HA Linux Cluster in der Praxis

HA Linux Cluster in der Praxis HA Linux Cluster in der Praxis Werner Fischer, Christoph Mitasch Research & Development Thomas-Krenn.AG Thomas Krenn Hausmesse 29./30. August 2007 1/13 Agenda 1) Ausfallsicherheit bei Virtualisierung?

Mehr

Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung

Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung Fritz Günther 17.03.2014 Folie 1 Agenda Was ist Virtualisierung Server- / Clientvirtualisierung

Mehr

So erreichen Sie uns:

So erreichen Sie uns: für Das I Ho chp hre in Clus t d erf orm ividu ersy e s ll ant, sic en Be tem dü her und rfnis pre se. isw ert. So erreichen Sie uns: Giga-Hosting GmbH Aschauer Straße 32 a 81549 München +49 (0) 89 / 212

Mehr

High-Availability Clustering. Holger Hennig, HA-Cluster Specialist

High-Availability Clustering. Holger Hennig, HA-Cluster Specialist High-Availability Clustering Holger Hennig, HA-Cluster Specialist INHALTSVERZEICHNIS 1. ABSTRACT...3 2. EINFÜHRUNG...4 2.1 GRUNDLAGEN...4 2.2 DAS KONZEPT DES HA CLUSTERS...4 2.3 VORTEILE EINER HA CLUSTERLÖSUNG...5

Mehr

Hochverfügbarkeit und Lastverteilung am Beispiel von Apache. Stephan Wienczny

Hochverfügbarkeit und Lastverteilung am Beispiel von Apache. Stephan Wienczny Hochverfügbarkeit und Lastverteilung am Beispiel von Apache Stephan Wienczny Inhalt Motivation Hochverfügbarkeit Aufbau Virtualbox DRDB als verteiltes Blockdevice OCFS2 Clusterdateisystem Apache Webserver

Mehr

Solaris Cluster. Dipl. Inform. Torsten Kasch 8. Januar 2008

Solaris Cluster. Dipl. Inform. Torsten Kasch <tk@cebitec.uni Bielefeld.DE> 8. Januar 2008 Dipl. Inform. Torsten Kasch 8. Januar 2008 Agenda Übersicht Cluster Hardware Cluster Software Konzepte: Data Services, Resources, Quorum Solaris Cluster am CeBiTec: HA Datenbank

Mehr

Dienstleistungen Abteilung Systemdienste

Dienstleistungen Abteilung Systemdienste Dienstleistungen Abteilung Systemdienste Betrieb zentraler Rechenanlagen Speicherdienste Systembetreuung im Auftrag (SLA) 2 HP Superdome Systeme Shared Memory Itanium2 (1.5 GHz) - 64 CPUs, 128 GB RAM -

Mehr

Hochverfügbarkeit mit Speichernetzen

Hochverfügbarkeit mit Speichernetzen Hochverfügbarkeit mit Speichernetzen Ulf Troppens LAN vip Server 1 Brandschutzmauer Server 2 Cluster Agenda e Multipathing Clustering Datenspiegelung Beispiele Fazit 2/32 Agenda e Multipathing Clustering

Mehr

Computing @ GSI. Walter Schoen, GSI

Computing @ GSI. Walter Schoen, GSI Computing @ GSI LINUX @ GSI, overview Migration of services growing of the LINUX Batch farm Migration Windows Desktops > XP security: new firewall configuration statefull routing GSI free WLAN DMZ Walter

Mehr

Erfahrungen mit parallelen Dateisystemen

Erfahrungen mit parallelen Dateisystemen Erfahrungen mit parallelen n frank.mietke@informatik.tu-chemnitz.de Fakultätsrechen- und Informationszentrum (FRIZ) Professur Rechnerarchitektur Technische Universität Chemnitz 25.09.2007 - Megware HPC

Mehr

Hochleistungs-Disk-I/O

Hochleistungs-Disk-I/O Hochleistungs-Disk-I/O mit Lustre, dcache und AFS eine vergleichende Betrachtung Stephan Wiesand DESY DV 33. Treffen des ZKI AK Supercomputing Hamburg, 2010-03-04 Computing am DESY Standort Zeuthen Batch

Mehr

56 Maßnahmen zur Sicherung der Verfügbarkeit in Oracle-Umgebungen. Client Client Client Client Client. Public Network. aktiv. Private Network.

56 Maßnahmen zur Sicherung der Verfügbarkeit in Oracle-Umgebungen. Client Client Client Client Client. Public Network. aktiv. Private Network. 56 Maßnahmen zur Sicherung der Verfügbarkeit in Oracle-Umgebungen aktiv inaktiv Node 1 ( Aktiv ) Node 2 ( Passiv ) Private Network aktiv inaktiv (exklusiver Zugriff) Abbildung 3.1: Schematische Darstellung

Mehr

Fileserver mit OSL Storage Cluster Hochverfügbare NFS und Samba Server in heterogenen Netzwerkumgebungen. 11.10.2007 Christian Schmidt

Fileserver mit OSL Storage Cluster Hochverfügbare NFS und Samba Server in heterogenen Netzwerkumgebungen. 11.10.2007 Christian Schmidt Fileserver mit OSL Storage Cluster Hochverfügbare NFS und Samba Server in heterogenen Netzwerkumgebungen 11.10.2007 Christian Schmidt Agenda Ausgangssituation am Beispiel der IBB Einführung in NFS und

Mehr

High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO

High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO Anastasios Stomas SFI Technology Services AG 12. März 2003 anastasios.stomas@sfi.ch Seite 1 Hintergrund INHALT Cluster-

Mehr

Linux-HA-Cluster Heartbeat mit DRBD

Linux-HA-Cluster Heartbeat mit DRBD Linux-HA-Cluster Heartbeat mit DRBD Thomas Röhl 01. Oktober 2004 Inhalt Was ist ein HA-Cluster? Vorbereiten des Projekts Hardware Software Allgemeiner Aufbau des Clusters Installation von DRBD Installation

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

Clustering und Failover mit Linux 2004. Markus Oswald

Clustering und Failover mit Linux 2004. Markus Oswald <moswald@iirc.at> Grazer Linux-Tage 2004 7. / 8. Mai Clustering und Failover mit Linux 2004 Markus Oswald 2004 Worum geht es? Load-Balanced Cluster Failover Cluster Shared Storage (DRBD) Computational

Mehr

Virtual System Cluster: Freie Wahl mit Open Source

Virtual System Cluster: Freie Wahl mit Open Source Virtual System Cluster: Freie Wahl mit Open Source LPI Partnertagung 2012 Sprecher: Uwe Grawert http://www.b1-systems.de 24. April 2012 c B1 Systems GmbH 2004 2012 Chapter -1, Slide 1 Freie Wahl beim Virtual

Mehr

16.11.2010 HOTEL ARTE, OLTEN

16.11.2010 HOTEL ARTE, OLTEN INFONET DAY 2010 16.11.2010 HOTEL ARTE, OLTEN STORAGE DESIGN 1 X 1 FÜR EXCHANGE 2010 WAGNER AG Martin Wälchli martin.waelchli@wagner.ch WAGNER AG Giuseppe Barbagallo giuseppe.barbagallo@wagner.ch Agenda

Mehr

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel Freiberuflicher Schwerpunkte: Unix, Oracle, Netzwerk 2005 1 Testaufbauten von Oracle 10g RAC auf preiswerter Hardware 2 3 Typisches Cluster System Clients Public Network Node A Node B Cluster Interconnect

Mehr

VMware. Rainer Sennwitz.

VMware. Rainer Sennwitz. <Rainer.Sennwitz@andariel.informatik.uni-erlangen.de> VMware Rainer Sennwitz Lehrstuhl für Informatik IV Friedrich-Alexander-Universität Erlangen-Nürnberg 4. Juli 2007 Rainer Sennwitz VMware Inhalt Inhalt

Mehr

Einblick in die VMware Infrastruktur

Einblick in die VMware Infrastruktur Einblick in die VMware Infrastruktur Rainer Sennwitz Lehrstuhl für Informatik IV Friedrich-Alexander-Universität Erlangen-Nürnberg 4. Juli 2007 Rainer

Mehr

Mailbox Cluster Konzepte

Mailbox Cluster Konzepte Ideen für grosse Mailstores Mailbox Cluster Konzepte Felix J. Ogris (fjo@dts.de) Version 1.0 2008-05-25 Inhaltsverzeichnis Inhaltsverzeichnis Inhaltsverzeichnis 1 Schema 4 2 Storage 5 2.1 Mailbox- und

Mehr

INHALT 1.) Einleitung... 2

INHALT 1.) Einleitung... 2 Cluster Dateisysteme Ausarbeitung zum Vortrag im Rahmen des Proseminars Speicher- und Dateisysteme an der Universität Hamburg im Sommersemester 2012 Betreuer: Michael Kuhn Michaela Zimmer Ausgearbeitet

Mehr

RAID. Name: Artur Neumann

RAID. Name: Artur Neumann Name: Inhaltsverzeichnis 1 Was ist RAID 3 1.1 RAID-Level... 3 2 Wozu RAID 3 3 Wie werden RAID Gruppen verwaltet 3 3.1 Software RAID... 3 3.2 Hardware RAID... 4 4 Die Verschiedenen RAID-Level 4 4.1 RAID

Mehr

Verfügbarkeit von Applikationen und Failover Szenarien. Winfried Wojtenek. wojtenek@mac.com

Verfügbarkeit von Applikationen und Failover Szenarien. Winfried Wojtenek. wojtenek@mac.com Verfügbarkeit von Applikationen und Failover Szenarien Winfried Wojtenek wojtenek@mac.com Verfügbarkeit % Tage Stunden Minuten 99.000 3 16 36 99.500 1 20 48 99.900 0 9 46 99.990 0 0 53 99.999 0 0 5 Tabelle

Mehr

Server-Virtualisierung mit Citrix XenServer und iscsi

Server-Virtualisierung mit Citrix XenServer und iscsi Server-Virtualisierung mit Citrix XenServer und iscsi Universität Hamburg Fachbereich Mathematik IT-Gruppe 1. März 2011 / ix CeBIT Forum 2011 Gliederung 1 Server-Virtualisierung mit Citrix XenServer Citrix

Mehr

Tutorial Speichernetze

Tutorial Speichernetze Tutorial Speichernetze Speichervirtualisierung Speichernetze Grundlagen und Einsatz von Fibre Channel SAN, NAS, iscsi und InfiniBand dpunkt.verlag 2003 Agenda Probleme in Speichernetzen Speichervirtualisierung

Mehr

Hochverfügbare Server-Hardware: Eine Fallstudie (Logistik-Zentrum)

Hochverfügbare Server-Hardware: Eine Fallstudie (Logistik-Zentrum) Hochverfügbare Server-Hardware: Eine Fallstudie (Logistik-Zentrum) Anforderungen aus heutiger Sicht Wesentliche Merkmale der Anwendung Leistungsbestimmende Komponenten Zuverlässigkeitsbestimmende Komponenten

Mehr

CHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm

CHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm CHiC er Hochleistungs-Linux Cluster Stand HPC Cluster CHiC, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität

Mehr

IT Storage Cluster Lösung

IT Storage Cluster Lösung @ EDV - Solution IT Storage Cluster Lösung Leistbar, Hochverfügbar, erprobtes System, Hersteller unabhängig @ EDV - Solution Kontakt Tel.: +43 (0)7612 / 62208-0 Fax: +43 (0)7612 / 62208-15 4810 Gmunden

Mehr

PVFS (Parallel Virtual File System)

PVFS (Parallel Virtual File System) Management grosser Datenmengen PVFS (Parallel Virtual File System) Thorsten Schütt thorsten.schuett@zib.de Management grosser Datenmengen p.1/?? Inhalt Einführung in verteilte Dateisysteme Architektur

Mehr

Diskless Cluster und Lustre Erfahrungsbericht zum CHiC

Diskless Cluster und Lustre Erfahrungsbericht zum CHiC Diskless Cluster und Lustre Erfahrungsbericht zum CHiC, Torsten Hoefler, Torsten Mehlan und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität

Mehr

Kleine Speichersysteme ganz groß

Kleine Speichersysteme ganz groß Kleine Speichersysteme ganz groß Redundanz und Performance in Hardware RAID Systemen Wolfgang K. Bauer September 2010 Agenda Optimierung der RAID Performance Hardware-Redundanz richtig nutzen Effiziente

Mehr

Isilon Solutions + OneFS

Isilon Solutions + OneFS Isilon Solutions + OneFS Anne-Victoria Meyer Universität Hamburg Proseminar»Ein-/Ausgabe Stand der Wissenschaft«, 2013 Anne-Victoria Meyer Isilon Solutions + OneFS 1 / 25 Inhalt 1. Einleitung 2. Hardware

Mehr

Keep your SAN simple Spiegeln stag Replizieren

Keep your SAN simple Spiegeln stag Replizieren Keep your SAN simple Spiegeln stag Replizieren best Open Systems Day Mai 2011 Unterföhring Marco Kühn best Systeme GmbH marco.kuehn@best.de OS Unterstützung für Spiegelung Host A Host B Host- based Mirror

Mehr

Linux Hochverfügbarkeit

Linux Hochverfügbarkeit Oliver Liebel Linux Hochverfügbarkeit Einsatzszenarien und Praxislösungen Inhalt Vorwort 11 f.ty,.risfcy 8 Business - ausfajwchere Server...,..»...,.,...»...» 17 1.1 Grundsätzliche Überlegungen zur Redundanz

Mehr

Einleitung. Storage-Monitoring mit Nagios

Einleitung. Storage-Monitoring mit Nagios Einleitung Storage-Monitoring mit Nagios Kapitel 01: Einleitung Überblick... 01.01 NetApp - Network Appliance... 01.03 Data ONTAP & WAFL... 01.04 Interner Aufbau... 01.05 Überblick Storage-Monitoring mit

Mehr

Neues in Hyper-V Version 2

Neues in Hyper-V Version 2 Michael Korp Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/mkorp Neues in Hyper-V Version 2 - Virtualisieren auf die moderne Art - Windows Server 2008 R2 Hyper-V Robust Basis:

Mehr

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1 Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer

Mehr

FlexiScale - Web Hosting mit Cloud-Computing Hochschule Mannheim

FlexiScale - Web Hosting mit Cloud-Computing Hochschule Mannheim Jiaming Song Cloud-Computing Seminar Hochschule Mannheim WS0910 1/31... FlexiScale - Web Hosting mit Cloud-Computing Hochschule Mannheim.... Jiaming Song Fakultät für Informatik Hochschule Mannheim jiaming360@googlemail.com

Mehr

Clustering mit Network Appliance Filer

Clustering mit Network Appliance Filer Clustering mit Network Appliance Filer Ing. Peter-Paul Witta paul.witta@cubit.at paul.witta@cubit.at Clustering mit intel/linux mehrere kleine Rechner leisten gemeinsam Grosses günstige dual intel/amd

Mehr

egs Storage Offensive

egs Storage Offensive egs Storage Offensive Seit mittlerweile 5 Jahren können wir eine enge Partnerschaft zwischen der egs Netzwerk und Computersysteme GmbH und dem führenden Anbieter im Bereich Datenmanagement NetApp vorweisen.

Mehr

RAC auf Sun Cluster 3.0

RAC auf Sun Cluster 3.0 RAC auf Sun Cluster 3.0 Schlüsselworte RAC, OPS, Sun Cluster, Performance, Availability Zusammenfassung Oracle hat mit dem Real Application Cluster (RAC) aus einer Hochverfügbarkeitslösung eine Höchstverfügbarkeitslösung

Mehr

Herzlich willkommen! 25.4. Bad Homburg 27.4. Hamburg 04.5. München

Herzlich willkommen! 25.4. Bad Homburg 27.4. Hamburg 04.5. München Herzlich willkommen! 25.4. Bad Homburg 27.4. Hamburg 04.5. München Die Corpus Immobiliengruppe Ein Anwenderbericht über die Einführung von SAN Technologie in 3 Phasen Guntram A. Hock Leiter Zentralbereich

Mehr

RAID Redundant Array of Independent [Inexpensive] Disks

RAID Redundant Array of Independent [Inexpensive] Disks RAID Redundant Array of Independent [Inexpensive] Disks Stefan Wexel Proseminar Algorithms and Data Structures im WS 2011/2012 Rheinisch-Westfälische Technische Hochschule Aachen Lehrstuhl für Informatik

Mehr

Heterogenes Speichermanagement mit V:DRIVE

Heterogenes Speichermanagement mit V:DRIVE Heterogenes Speichermanagement mit V:DRIVE V:DRIVE - Grundlage eines effizienten Speichermanagements Die Datenexplosion verlangt nach innovativem Speichermanagement Moderne Businessprozesse verlangen auf

Mehr

IT-Infrastruktur für ORBIS-KIS mit ORBIS Notfallserver

IT-Infrastruktur für ORBIS-KIS mit ORBIS Notfallserver GWI 2. IT-Services Innovationstag der PlanOrg Medica GmbH Donnerstag, 18. Mai 2006, im JEMBO Park Jena IT-Infrastruktur für ORBIS-KIS mit ORBIS Notfallserver Daten- und Ausfallsicherheit Referent: Ralph

Mehr

Manfred Helber Microsoft Senior PreSales Consultant

Manfred Helber Microsoft Senior PreSales Consultant Manfred Helber Microsoft Senior PreSales Consultant Agenda ROK Vorteile Extended Live Migration Extended Hyper-V Replica Hyper-V Cluster Erweiterungen Storage Quality of Service Auswahl geeigneter Serversysteme

Mehr

Xenologie oder wie man einen Plastikmainframe baut

Xenologie oder wie man einen Plastikmainframe baut Xenologie oder wie man einen Plastikmainframe baut Alexander Schreiber http://www.thangorodrim.de/ Chemnitzer Linux-Tage 2006 I think there is a world market for maybe five computers.

Mehr

Cluster Quick Start Guide

Cluster Quick Start Guide Cluster Quick Start Guide Cluster SR2500 Anleitung zur Konfi guration KURZÜBERBLICK CLUSTER SEITE 2 FUNKTIONSWEISE DES THOMAS KRENN CLUSTERS (SCHAUBILD) SEITE 3 CLUSTER AUFBAUEN UND KONFIGURIEREN SEITE

Mehr

Windows Server 2012 R2 Storage

Windows Server 2012 R2 Storage Tech Data - Microsoft Windows Server 2012 R2 Storage MS FY14 2HY Tech Data Microsoft Windows Server 2012 R2 Kontakt: Microsoft @ Tech Data Kistlerhofstr. 75 81379 München microsoft-sales@techdata.de +49

Mehr

On- Demand Datacenter

On- Demand Datacenter On- Demand Datacenter Virtualisierung & Automatisierung von Enterprise IT- Umgebungen am Beispiel VMware Virtual Infrastructure 9. Informatik-Tag an der Hochschule Mittweida Andreas Wolske, Geschäftsführer

Mehr

TECHNISCHE PRODUKTINFORMATION CARUSO

TECHNISCHE PRODUKTINFORMATION CARUSO 1111 TECHNISCHE PRODUKTINFORMATION CARUSO TECHNISCHE PRODUKTINFORMATION Seite 0/7 Inhalt 1 Systemdefinition............2 2 Technische Details für den Betrieb von CARUSO......2 2.1 Webserver... 2 2.2 Java

Mehr

Linux Hochverfügbarkeits-Cluster

Linux Hochverfügbarkeits-Cluster Seminarunterlage Version: 5.05 Version 5.05 vom 23. Juli 2015 Dieses Dokument wird durch die veröffentlicht.. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen sind Warenzeichen

Mehr

Virtual Elastic Services

Virtual Elastic Services Überblick Inhalt dieses Vortrages Virtualisierung Seminar zum Schwerpunkt Systemtechnik von 10. März 2007 Überblick Inhalt dieses Vortrages Virtualisierung.: Überblick :. Ausblick auf Virtualisierungskonzepte

Mehr

Windows Server 2003 Cluster. Kompetenzabend bei LayerDREI EDV-Schulungen

Windows Server 2003 Cluster. Kompetenzabend bei LayerDREI EDV-Schulungen Windows Server 2003 Cluster Kompetenzabend bei LayerDREI EDV-Schulungen Agenda Begrüßung Vorstellung LayerDREI + IT-Training Grote Clustergrundlagen Windows Cluster Historie Hardware Cluster vs. NLB Windows

Mehr

Hochverfügbarkeit mit Windows Server vnext. Carsten Rachfahl Microsoft Hyper-V MVP

Hochverfügbarkeit mit Windows Server vnext. Carsten Rachfahl Microsoft Hyper-V MVP Hochverfügbarkeit mit Windows Server vnext Carsten Rachfahl Microsoft Hyper-V MVP Carsten Rachfahl www.hyper-v-server.de Roling Cluster Upgrade Herausforderung: Update eines Failover Clusters ohne Downtime

Mehr

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick:

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Red Hat Storage Server Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Offene Software Lösung für Storage Ansprache über einen globalen Namensraum Betrachtet Storage als einen virtualisierten

Mehr

Das Lern-Management System (LMS) StudIP an der Universität Osnabrück

Das Lern-Management System (LMS) StudIP an der Universität Osnabrück Das Lern-Management System (LMS) StudIP an der Universität Osnabrück Technische Details Frank.Elsner@rz.uni-osnabrueck.de Andrea.Tschentscher@rz.uni-osnabrueck.de Version 1.2, September 2005 Seite 1 Nutzungsprofil

Mehr

Lokales Storage Teil 1

Lokales Storage Teil 1 Lokales Storage Teil 1 Zinching Dang 08. Juli 2015 1 Lokales Storage im Allgemeinen Lokales Storage im Allgemeinen Datenträger, die direkt am Host angeschlossen sind Anbindung über verschiedene Bus-Systeme

Mehr

Virtualisierung: Neues aus 2010 und Trends 2011

Virtualisierung: Neues aus 2010 und Trends 2011 Virtualisierung: Neues aus 2010 und Trends 2011 Werner Fischer, Technology Specialist Thomas-Krenn.AG Thomas Krenn Herbstworkshop 2010 Freyung, 24. September 2010 Agenda 1) Virtualisierungs-Software VMware

Mehr

Massenspeichersysteme im Einsatz bei TIER 2/3 Grid-Zentren

Massenspeichersysteme im Einsatz bei TIER 2/3 Grid-Zentren Massenspeichersysteme im Einsatz bei TIER 2/3 Grid-Zentren Manuel Giffels III. Physikalisches Institut B RWTH Aachen Bad Honnef, 23.08.2005 Manuel Giffels Massenspeichersysteme im Einsatz bei TIER 2/3

Mehr

ROSIK Mittelstandsforum

ROSIK Mittelstandsforum ROSIK Mittelstandsforum Virtualisierung und Cloud Computing in der Praxis Virtualisierung in der IT Einführung und Überblick Hermann Josef Klüners Was ist Virtualisierung? In der IT ist die eindeutige

Mehr

Storage Virtualisierung

Storage Virtualisierung Storage Virtualisierung Einfach & Effektiv 1 Agenda Überblick Virtualisierung Storage Virtualisierung Nutzen für den Anwender D-Link IP SAN Lösungen für virtuelle Server Umgebungen Fragen 2 Virtualisierung

Mehr

Aufbau eigener Cloud-Infrastrukturen mit Eucalyptus Hochschule Mannheim

Aufbau eigener Cloud-Infrastrukturen mit Eucalyptus Hochschule Mannheim Andreas Ries Cloud-Computing Seminar Hochschule Mannheim WS0910 1/26 Aufbau eigener Cloud-Infrastrukturen mit Eucalyptus Hochschule Mannheim Andreas Ries Fakultät für Informatik Hochschule Mannheim ries.andreas@web.de

Mehr

Oracle Real Application Clusters: Requirements

Oracle Real Application Clusters: Requirements Oracle Real Application Clusters: Requirements Seite 2-1 Systemvoraussetzungen Mind. 256 MB RAM (mit 128 MB geht es auch...) Mind. 400 MB Swap Space 1,2 GB freier Speicherplatz für f r Oracle Enterprise

Mehr

Dezentrale Datenproduktion und -analyse bei DØ

Dezentrale Datenproduktion und -analyse bei DØ Dezentrale Datenproduktion und -analyse bei DØ Thomas Nunnemann LMU München nunne@fnal.gov DPG Mainz 31.3.04 Computing: Aufgaben/Anforderungen Datenaustausch verteilter Datenbankzugriff Prozessierung von

Mehr

Hochverfügbarkeit - wie geht das?

Hochverfügbarkeit - wie geht das? THINKIT DOIT ORBIT Hochverfügbarkeit - wie geht das? AGENDA Überblick Standby-Datenbanken FailSafe (Windows) Real Application Cluster (RAC) Architektur der Maximalen Verfügbarkeit Fragen? WAS IST HIGH

Mehr

Storage-Trends am LRZ. Dr. Christoph Biardzki

Storage-Trends am LRZ. Dr. Christoph Biardzki Storage-Trends am LRZ Dr. Christoph Biardzki 1 Über das Leibniz-Rechenzentrum (LRZ) Seit 50 Jahren Rechenzentrum der Bayerischen Akademie der Wissenschaften IT-Dienstleister für Münchner Universitäten

Mehr

Mindestanforderungen an Systemumgebung Für die Nutzung von excellenttango

Mindestanforderungen an Systemumgebung Für die Nutzung von excellenttango Die Hardware- und Softwareanforderungen sind als allgemeine Anforderungen zu betrachten. Zahlreiche Faktoren können sich auf diese Anforderungen auswirken und müssen daher beachtet werden: Die Anzahl und

Mehr

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte I N F O R M A T I O N V I R T U A L I S I E R U N G Wir schützen Ihre Unternehmenswerte Wir schützen Ihre Unternehmenswerte Ausfallsicherheit durch Virtualisierung Die heutigen Anforderungen an IT-Infrastrukturen

Mehr

Produktmatrix Endgeräte (Arbeitsplatzrechner) Stand: April 14

Produktmatrix Endgeräte (Arbeitsplatzrechner) Stand: April 14 Produktmatrix Endgeräte (Arbeitsplatzrechner) Stand: April 14 TEO Thin Economic Office Die kompakten Desktop-Rechner unserer Marke TEO zeichnen sich durch ihre besondere Energieeffizienz, Recyclingfähigkeit,

Mehr

Joachim Willems Innovationen @ SE Infrastruktur. 0 Copyright 2015 FUJITSU

Joachim Willems Innovationen @ SE Infrastruktur. 0 Copyright 2015 FUJITSU by Joachim Willems Innovationen @ SE Infrastruktur 0 Copyright 2015 FUJITSU Fujitsu Server SE Serie Kontinuität & Innovation Agile Infrastruktur & Einfachstes Mmgt Betrieb bewährt & up to date Management

Mehr

Leistungsbeschreibung vserver

Leistungsbeschreibung vserver Leistungsbeschreibung vserver Stand: 17.08.2011 1 Anwendungsbereich...2 2 Leistungsumfang...2 2.1 Allgemein...2 2.2 Hardware und Netzwerkanbindung...2 2.3 Variante Managed...2 2.4 Variante Unmanaged...3

Mehr

XEN-basiertes Cluster mit iscsi-san

XEN-basiertes Cluster mit iscsi-san XEN-basiertes Cluster mit iscsi-san UNIX Stammtisch Sachsen 28.10.2008 thomas.gross@teegee.de Cluster? hier: kein Cluster für paralleles Rechnen! mindestens 2 Clusterserver ein gemeinsamer Speicher (SAN)

Mehr

Einführung in Speichernetze

Einführung in Speichernetze Einführung in Speichernetze Ulf Troppens LAN LAN Disk Disk Server Server Speichernetz Server Disk Disk Disk Server Disk Server Server Agenda Grundlegende Konzepte und Definitionen Beispiel: Speicherkonsolidierung

Mehr

Simplivity Rechenzentrum in a Box

Simplivity Rechenzentrum in a Box 09-10.09 2 Tag Simplivity Rechenzentrum in a Box Markus Schmidt Consultant markus.schmidt@interface-systems.de Agenda 1.Motivation Warum ein neuer Ansatz 2.Technischer Überblick 3.Anwendungsszenarien 4.Performancebetrachtung

Mehr

LimTec Office Cloud. 28.07.2011 LimTec www.limtec.de

LimTec Office Cloud. 28.07.2011 LimTec www.limtec.de LimTec Office Cloud 1 Überblick Ihre Ausgangssituation Ihre Risiken und Kostenfaktoren Die LimTec Office Cloud Idee Cluster und Cloud Office Cloud Komponenten Office Cloud Konfiguration Rückblick Vorteile

Mehr

HP STOREVIRTUAL STORAGE. Erweiterbarer Speicher für virtualisierte Umgebungen

HP STOREVIRTUAL STORAGE. Erweiterbarer Speicher für virtualisierte Umgebungen STORAGE Erweiterbarer Speicher für virtualisierte Umgebungen STORAGE 1. HP Disk Storage Systeme 2. HP StoreVirtual Hardware 3. HP StoreVirtual Konzept 4. HP StoreVirtual VSA 5. HP StoreVirtual Management

Mehr

Anforderungen BauPlus

Anforderungen BauPlus en BauPlus 1 BauPlus-Umgebungen... 2 1.1 Übersicht... 2 1.2 Einzelplatz... 2 1.3 Mehrplatzumgebung... 3 1.4 Terminalserver-Umgebung... 4 2 Microsoft SQL-Server... 5 2.1 e... 5 2.2 Voraussetzungen... 5

Mehr

Betriebssysteme K_Kap11C: Diskquota, Raid

Betriebssysteme K_Kap11C: Diskquota, Raid Betriebssysteme K_Kap11C: Diskquota, Raid 1 Diskquota Mehrbenutzer-BS brauchen einen Mechanismus zur Einhaltung der Plattenkontingente (disk quotas) Quota-Tabelle enthält Kontingenteinträge aller Benutzer

Mehr

Systemanforderungen Verlage & Akzidenzdruck

Systemanforderungen Verlage & Akzidenzdruck OneVision Software AG Inhalt Asura 9.5, Asura Pro 9.5, Garda 5.0...2 PlugBALANCEin 6.5, PlugCROPin 6.5, PlugFITin 6.5, PlugRECOMPOSEin 6.5, PlugSPOTin 6.5,...2 PlugTEXTin 6.5, PlugINKSAVEin 6.5, PlugWEBin

Mehr

Shibboleth Clustering und Loadbalancing

Shibboleth Clustering und Loadbalancing Shibboleth Clustering und Loadbalancing STEINBUCH CENTRE FOR COMPUTING - SCC KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Computercluster

Mehr