Hochleistungs-Disk-I/O



Ähnliche Dokumente
Frederik Wagner Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften

Erfahrungen mit parallelen Dateisystemen

Verfügbarkeit von Applikationen und Failover Szenarien. Winfried Wojtenek.

LVM und ZFS reloaded

2 Datei- und Druckdienste

Hochverfügbarkeit mit Windows Server vnext. Carsten Rachfahl Microsoft Hyper-V MVP

PROLAG WORLD 2.0 PRODUKTBESCHREIBUNG SERVERSYSTEM, CLUSTERSYSTEME FÜR PROLAG WORLD

Logischer Aufbau von Storagesystemen. Ernst Fankhauser

ProSeminar Speicher- und Dateisysteme

WISSENSWERTES ÜBER WINDOWS SCALE-OUT FILE SERVER

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. Dipl.-Inform. Joachim Jäckel

Informationen VMware VSA & Microsoft Storage Spaces

Verteiltes Persistenz-System. Mykhaylo Kabalkin

Installation SQL- Server 2012 Single Node

Hochverfügbare Virtualisierung mit Open Source

Storage as a Service im DataCenter

EXCHANGE Neuerungen und Praxis

Verteilte Dateisysteme

Betriebssysteme K_Kap11C: Diskquota, Raid

Speichernetze (Storage Area Networks, SANs)

Max-Planck-Institut für demografische Forschung, Rostock

Keep your SAN simple Spiegeln stag Replizieren

Windows HPC Server 2008 aus der Betreiberperspektive

Clustering mit Shared Storage. Ing. Peter-Paul Witta

Neues in Hyper-V Version 2

Erste Erfahrungen mit Windows 2012 R2 Tiered Storage (Speicherpools)

Oracle Real Application Clusters: Requirements

PVFS (Parallel Virtual File System)

Lokales Storage Teil 1

Excel beschleunigen mit dem mit Windows HPC Server 2008 R2

SANTEC Video Technologies Professionelle Lösungen für mehr Sicherheit

VirtualBox und OSL Storage Cluster

GSCC General Storage Cluster Controller. TSM Verfügbarkeit

Netzwerk-Fileservices am RUS

Ralf Simon, DV-Orga - Kreisverwaltung Birkenfeld

Oracle Automatic Storage Management (ASM) Best Practices

FileLock FLEXIBLE SKALIERBARE KOSTENEFFIZIENTE HARDWARE- UNABHÄNGIGE LÖSUNGEN ZUR LANG-ZEIT DATENARCHIVIERUNG YOUR DATA.

Hyper-V Replica in Windows Server 2012 R2. Benedict Berger Microsoft MVP Virtual Machine

STORAGE. Martin Schmidt Berufsschule Obernburg

3 Windows als Storage-Zentrale

Albert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen

dsmisi Storage Lars Henningsen General Storage

VMware vsphere 6.0 Neuigkeiten und neue Features

doubleslash Net-Business GmbH

ein verteiltes und repliziertes Dateisystem XtreemOS IP project is funded by the European Commission under contract IST-FP

dcache! The dcache team

TERRA CLOUD. TERRA NAS Hybrid Lösung

4D Server v12 64-bit Version BETA VERSION

Kleine Speichersysteme ganz groß

Simplify Business continuity & DR

Preis- und Leistungsverzeichnis der Host Europe GmbH. Dedicated Storage - ISCSI V 1.1. Stand:

Installation der SAS Foundation Software auf Windows

1 Einzelplatzversion. 1.1 Hardware. 1.2 Software* Stand Juli 2014

Dateisysteme. Lokale Linux Dateisysteme. Michael Kürschner (m

LCG2-basierte MonteCarlo Produktion bei H1

FAST LTA Systeme Langzeitspeicher für medizinische Universalarchive

Reporting Services und SharePoint 2010 Teil 1

Systemanforderungen (Mai 2014)

Anbindung LMS an Siemens S7. Information

Spotlight 5 Gründe für die Sicherung auf NAS-Geräten

Flexible Skalierbare Hardware unabhängige Lösungen zur revisionssicheren & Lang-Zeit Datenarchivierung

Systemvoraussetzungen winvs office winvs advisor

Konfiguration von Igel ThinClients fu r den Zugriff via Netscaler Gateway auf eine Storefront/ XenDesktop 7 Umgebung

Mindestanforderungen an Systemumgebung Für die Nutzung von excellenttango

Videoüberwachung als Virtuelle Maschine. auf Ihrem Server, PC oder Mac. Peter Steinhilber

vsphere vs. HyperV ein Vergleich aus Sicht eines VMware Partners interface:systems

Datensicherheit und Hochverfügbarkeit

Virtualisierung mit iscsi und NFS

herzlich vsankameleon Anwendungsbeispiel Titelmasterformat durch Klicken bearbeiten willkommen Titelmasterformat durch Klicken bearbeiten

Installationsvoraussetzungen

HPE StoreOnce im Einsatz

Preisvergleich ProfitBricks - Amazon Web Services M3 Instanz

Michael Beeck. Geschäftsführer

Virtuelle Maschinen. von Markus Köbele

Vorstellung SimpliVity. Tristan P. Andres Senior IT Consultant

Produktbeschreibung ContentX

MySQL High Availability. DOAG 2013 Datenbank. 14. Mai 2013, Düsseldorf. Oli Sennhauser

DNS 323 Wiederherstellung von gelöschten Dateien (bzw. von als in Windows als gelöscht markierten Dateien ) aus einem ext2 Dateisystem

Systemvoraussetzungen

Laufwerke unter Linux - Festplatten - - USB Sticks - September 2010 Oliver Werner Linuxgrundlagen 1

peer-to-peer Dateisystem Synchronisation

Es steht zwar überall NAS drauf, unter der Haube sieht es aber anders aus. Die Hersteller versuchen, mit eigenen Technologien zu trumpfen.

Ceph. Distributed Storage Julian mino Klinck GPN

Systemvoraussetzungen

Hochverfügbarkeit mit Speichernetzen

Open Source als de-facto Standard bei Swisscom Cloud Services

exomium expansion R4 424E

Systemvoraussetzungen Stand

Verwaltung der MSATA-SSD bei HP Envy Ultrabook 4 und Ultrabook 6 mit Intel Smart Response Technologie

HERZLICH WILLKOMMEN SHAREPOINT DEEP DIVE FOR ADMINS IOZ AG 2

Hardware- und Softwareanforderungen für die Installation von California.pro

Update / Inbetriebnahme domovea Server. Update/Inbetriebnahme domovea Server Technische Änderungen vorbehalten

OSL Storage Cluster und RSIO unter Linux Storage-Attachment und Hochverfügbarkeit in 5 Minuten

MySQL Cluster mit Galera

Die Grid-Infrastrukur und die NAF am DESY

INSTALLATIONSANLEITUNG der Version 2.1 (Jänner 2014)

Transkript:

Hochleistungs-Disk-I/O mit Lustre, dcache und AFS eine vergleichende Betrachtung Stephan Wiesand DESY DV 33. Treffen des ZKI AK Supercomputing Hamburg, 2010-03-04

Computing am DESY Standort Zeuthen Batch Farm 696 Cores Parallel Cluster 1024 Cores, IB NAF/Tier2 Grid 672 Cores Hamburg 350 km NAF Batch 512 Cores apenext 2.5 TFlops WLCG Tier2 Zentrum für ATLAS, CMS, LHCb + Grid Ressourcen für andere VOs + Terascale Alliance National Analysis Facility für LHC/ILC Physik Stephan Wiesand Hochleistungs-Disk-I/O mit Lustre, dcache und AFS 2010-03-04 Page 2

Computing + Disk Storage am DESY Standort Zeuthen Batch Farm 696 Cores Parallel Cluster 1024 Cores, IB NAF/Tier2 Grid 672 Cores Lustre AFS 100 TB Lustre 55 TB 50 TB Lustre 40 TB Panasas dcache 9 TB 270 TB dcache 700 TB Hamburg 350 km dcache Lustre AFS NAF Batch 512 Cores Lustre 50 TB AFS Stephan Wiesand Hochleistungs-Disk-I/O mit Lustre, dcache und AFS 2010-03-04 Page 3

Der Storage Baustein > Direct Attached Storage. Typische Konfiguration: 1-4 x GbE IB (DDR) 10GbE OSS / Pool Node / Fileserver RAID6 Controller 4x3 Gb/s SAS, x2 (redundant) JBOD 15 x 2 TB SATA 15 x 600 GB SAS > OS: S5L 64-bit Automatische, zentrale Installation, Konfiguration, Wartung, Überwachung genau wie für die Rechenknoten (alle Systeme voll gepatcht) Stephan Wiesand Hochleistungs-Disk-I/O mit Lustre, dcache und AFS 2010-03-04 Page 4

AFS Volume Location Database Cluster auf Applikationsebene > Volume basiert eingebette Mountpoints ergeben den Namespace R/O Replizierung, asynchron Transparente Migration Quotas (2 TB max) > Client relativ langsam > Volumes sind auf eine Fileserverpartition beschränkt Fileserver Stephan Wiesand Hochleistungs-Disk-I/O mit Lustre, dcache und AFS 2010-03-04 Page 5

AFS + OSD - vielversprechende Entwicklung > Volume basiert eingebette Mountpoints ergeben den Namespace R/O Replizierung, asynchron Transparente Migration Quotas > kleine Dateien auf dem Fileserver > große auf den OSDs (+ Striping) > Client greift ggf. direkt auf OSDs zu ggf. direkt auf das Backend-Filesystem (z.b. Lustre, GPFS) > http://www.rzg.mpg.de/projects/hsm-afs Volume Location Database Cluster auf Applikationsebene OSD Server Fileserver Stephan Wiesand Hochleistungs-Disk-I/O mit Lustre, dcache und AFS 2010-03-04 Page 6

Unsere erste Lustre Instanz > in Betrieb seit Anfang 2008 > Anbindung: 2 x GbE / Server OSSs: HP DL380 G5 2 x 4 Cores 2.33 GHz 16 GB RAM, P400+P800 2 x 146 GB SAS RAID1 System & OST Journals 4 x 146 GB SAS RAID10 System & MDT OSTs: HP MSA 60 12 x 750 GB E-SATA RAID6 on P800 OSS 0 OST 0, 3 OSS 1 OST 1, 4 OSS 2 OST 2,5 MGS/MDS Stephan Wiesand Hochleistungs-Disk-I/O mit Lustre, dcache und AFS 2010-03-04 Page 7

Unsere zweite Lustre Instanz > In Betrieb seit Mitte 2009 > Anbindung: 2xGbE/Server MGS/MDS > 1 TB SATA Disks 52 TB netto OSSs Stephan Wiesand Hochleistungs-Disk-I/O mit Lustre, dcache und AFS 2010-03-04 Page 8

Unsere dritte Lustre Instanz > primär für den Parallel-Cluster, im Aufbau > Anbindung: (1x DDR Infiniband + 2 x GbE) / Server MGS/MDS > 2 TB SATA Disks 104 TB netto OSSs Stephan Wiesand Hochleistungs-Disk-I/O mit Lustre, dcache und AFS 2010-03-04 Page 9

Performance: AFS vs. Lustre in Einbrenntests AFS, 1 Server 220 MB/s > 64 Clients, 128 Jobs > kopieren/lesen je 2 GB Lustre, 4 OSSs 900 MB/s Stephan Wiesand Hochleistungs-Disk-I/O mit Lustre, dcache und AFS 2010-03-04 Page 10

Lustre Einbrenntest 220 MB/s OSS 1 OSS 2 OSS 3 OSS 4 Stephan Wiesand Hochleistungs-Disk-I/O mit Lustre, dcache und AFS 2010-03-04 Page 11

dcache > kein normales Dateisystem Dateien können nicht modifiziert werden Head Node Pool Nodes Stephan Wiesand Hochleistungs-Disk-I/O mit Lustre, dcache und AFS 2010-03-04 Page 12

dcache > kein normales Dateisystem Dateien können nicht modifiziert werden Head Node Pool Nodes gestohlen aus http://www.dcache.org/manuals/20091030-storageworkshop-cologne.pdf Stephan Wiesand Hochleistungs-Disk-I/O mit Lustre, dcache und AFS 2010-03-04 Page 13

dcache > kein normales Dateisystem Dateien können nicht modifiziert werden Head Node Pool Nodes > Replizierung > Migration > mit/ohne HSM > R/O Pools > Grid Storage Element gestohlen aus http://www.dcache.org/manuals/20091030-storageworkshop-cologne.pdf Stephan Wiesand Hochleistungs-Disk-I/O mit Lustre, dcache und AFS 2010-03-04 Page 14

ATLAS Hammercloud Tier2 Site Test, 2. März 2010 > dcache Durchsatz 1 GB/s http://gangarobot.cern.ch/hc/1131/test/ Stephan Wiesand Hochleistungs-Disk-I/O mit Lustre, dcache und AFS 2010-03-04 Page 15

dcache Lasttest 4 GB/s Stephan Wiesand Hochleistungs-Disk-I/O mit Lustre, dcache und AFS 2010-03-04 Page 16

Vergleich: Skalierbarkeit > Gemeinsamkeit: Trennung von Daten und Metadaten AFS: nur Volume Location auf DB Servern > File/Directory Metadaten sind Teil des Volumes dcache: File Location und alle Metadaten Lustre: File Location und Metadaten auf MDS > außer der Größe - bei stat() arbeiten alle mit nur AFS skaliert gut für kleine Dateien > Lustre und dcache verteilen Daten automatisch auf Storage Nodes > AFS und dcache können Daten replizieren und I/O verteilen AFS: ganze Volumes, asynchron dcache: ganze Files > Lustre: Striping - gut bei extrem großen Dateien > AFS + OSD: Obermenge der besten Features Stephan Wiesand Hochleistungs-Disk-I/O mit Lustre, dcache und AFS 2010-03-04 Page 17

Vergleich: Performanz > Lookup AFS gut, skaliert mit Zahl der Fileserver Lustre und dcache (und Panasas...) mäßig > mögliche stat(), open() Rate begrenzt durch Leistung eines Servers > Read/Write - einzelner Client AFS: < 100 MB/s (deutlich besser: OSD + Lustre Backend) Lustre: GbE Wire Speed ohne Tuning, >> 100 MB/s mit Infiniband dcache: GbE Wire Speed nach Client Tuning (dcap), 10 GbE:? > Read/Write - viele parallele Clients AFS: max. ca. 300 MB/s/Volume (falls nicht repliziert) Lustre, dcache: > 500 MB/s/Server > nur begrenzt durch Netzwerk und Zahl der OSS / Pool Nodes Stephan Wiesand Hochleistungs-Disk-I/O mit Lustre, dcache und AFS 2010-03-04 Page 18

Vergleich: Vielseitigkeit > untrusted Clients/Networks? AFS: ja, Kerberos - aber schwache Schlüssel dcache: ja - Kerberos, X509 Lustre: nein - Kerberos auf der Roadmap > heterogene Clients? AFS: nativer Client für Linux, Windows, ander Unices (OS X) dcache: viele Zugriffsprotokolle (neu: pnfs, WebDAV) Lustre: nur Linux Client. NFS Export als Notlösung > alle funktionieren gut übers WAN (Lustre: mit VPN) > dcache Besonderheiten: kommt als Grid Storage Element HSM-Anbindung ist natürlich nicht ganz POSIX-artig Stephan Wiesand Hochleistungs-Disk-I/O mit Lustre, dcache und AFS 2010-03-04 Page 19

Vergleich: Zuverlässigkeit und Verfügbarkeit > AFS: sehr stabil auch gegen zeitweilige Ausfälle von Netzwerk, Servern HA eingebaut für DB Server, nicht möglich für Fileserver asynchrone R/O Replizierung von Volumes mit Client Failover > Lustre: HA im Design erfordert Shared Storage + Standby Server Preis: Recovery, Eviction - Client Crash ist signifikantes Ereignis relativ jung - neues Release, neue Features, neue Bugs noch nicht robust gegen Aussetzer des Netzwerks > dcache: in der Praxis sehr robust Keine Redundanz beim Head Node Stephan Wiesand Hochleistungs-Disk-I/O mit Lustre, dcache und AFS 2010-03-04 Page 20

Fazit > Aus Standardbausteinen aus Commodity Hardware mit Direct Attached Storage entstehen flexibel Dateisysteme mit verschiedenen Eigenschaften. > Mit Lustre und dcache lassen sich so sehr performante Gesamtsysteme aufbauen. > Der Ansatz und die drei Dateisysteme haben sich in der Praxis bewährt. > Die relativ hohe Anzahl der Server ist unproblematisch, dank Verwendung der selben Methoden und Infrastruktur wie für Rechenknoten. AFS 55 TB Lustre 100 TB dcache 700 TB > AFS wird wohl nie Rekorde aufstellen. Mit der OSD Erweiterung könnte es aber für manche Anwendungen ein guter Kompromiss werden. Stephan Wiesand Hochleistungs-Disk-I/O mit Lustre, dcache und AFS 2010-03-04 Page 21