Erfahrungen mit parallelen Dateisystemen



Ähnliche Dokumente
CHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm

Hochleistungs-Disk-I/O

ProSeminar Speicher- und Dateisysteme

Speichernetze (Storage Area Networks, SANs)

Lehrveranstaltung Speichersysteme Sommersemester Kapitel 13: Parallele Dateisysteme. André Brinkmann

Frederik Wagner Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften

Storage Area Networks im Enterprise Bereich

Skalierbarer Fileservice mit pnfs

Diskless Cluster und Lustre Erfahrungsbericht zum CHiC

IT-Effizienzworkshop bei New Vision GmbH Entry und Midrange Disksysteme

Hochverfügbarkeit mit Speichernetzen

Systemanforderungen ab Version 5.31

Oracle Real Application Clusters: Requirements

Max-Planck-Institut für demografische Forschung, Rostock

Michael Beeck. Geschäftsführer

MATRIX FÜR HITACHI VIRTUAL STORAGE PLATFORM-PRODUKTFAMILIE

I/O Performance optimieren

STORAGE. Martin Schmidt Berufsschule Obernburg

Inhaltsverzeichnis. BüroWARE Systemanforderungen ab Version Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. Dipl.-Inform. Joachim Jäckel

Verfügbarkeit von Applikationen und Failover Szenarien. Winfried Wojtenek.

PVFS (Parallel Virtual File System)

Preis- und Leistungsverzeichnis der Host Europe GmbH. Dedicated Storage - ISCSI V 1.1. Stand:

HP STOREVIRTUAL STORAGE. Erweiterbarer Speicher für virtualisierte Umgebungen

Kleine Speichersysteme ganz groß

Einführung in Speichernetze

Informationen VMware VSA & Microsoft Storage Spaces

Hochverfügbare Virtualisierung mit Open Source

Speichermanagement auf Basis von Festplatten und optischer Jukebox

Clustering mit Shared Storage. Ing. Peter-Paul Witta

Keep your SAN simple Spiegeln stag Replizieren

Erste Erfahrungen mit Windows 2012 R2 Tiered Storage (Speicherpools)

Spotlight 5 Gründe für die Sicherung auf NAS-Geräten

Lehrveranstaltung Speichersysteme Sommersemester 2009

Wie verbinde ich ein JBOD-System mit dem QStore QMX? - 1

PROLAG WORLD 2.0 PRODUKTBESCHREIBUNG SERVERSYSTEM, CLUSTERSYSTEME FÜR PROLAG WORLD

( ZIH ) Zentrum für Informationsdienste und Hochleistungsrechnen. Kooperation mit Microsoft und Dell

Case Studies. Einsparpotenziale durch Konsolidierung und Virtualisierung. Jan Philipp Rusch New Vision GmbH

WISSENSWERTES ÜBER WINDOWS SCALE-OUT FILE SERVER

Laufwerke unter Linux - Festplatten - - USB Sticks - September 2010 Oliver Werner Linuxgrundlagen 1

HPE StoreOnce im Einsatz

Felix Großkreuz Philipps-Universität Marburg Fachbereich 12 Seminar IT-Administration SS2011

Netzwerk-Fileservices am RUS

1 Modular System Dual SCM MPIO Software Installation

Sicherheitsaspekte der Langzeitarchivierung am Leibniz- Rechenzentrum. 09. Juni Rosa Freund

Tutorial Speichernetze

Neues in Hyper-V Version 2

Effizienter Einsatz von Flash-Technologien im Data Center

Q5 AG Q5 AG S T O R A G E N EU D E F I N I E R T. Das Q5 Team begrüsst Sie zum Storage Innovation Spotlight 2014,mit dem Thema:

Windows HPC Server 2008 aus der Betreiberperspektive

Vorstellung SimpliVity. Tristan P. Andres Senior IT Consultant

Geplante Speicherinfrastruktur der Universität Bielefeld

Solaris Cluster. Dipl. Inform. Torsten Kasch Bielefeld.DE> 8. Januar 2008

Speichersysteme am LRZ

SANTEC Video Technologies Professionelle Lösungen für mehr Sicherheit

3 Port PCI Express 2.0 SATA III 6Gb/s Raid Controller Karte mit msata Anschluss und HyperDuo SSD Tiering

Speichervirtualisierung mit HP SVSP und DataCore Symphony ein Praxisbericht

Verwaltung der MSATA-SSD bei HP Envy Ultrabook 4 und Ultrabook 6 mit Intel Smart Response Technologie

VMware vsphere 6.0 Neuigkeiten und neue Features

Hochverfügbarkeit mit Windows Server vnext. Carsten Rachfahl Microsoft Hyper-V MVP

Server-Virtualisierung mit Citrix XenServer und iscsi

FileLock FLEXIBLE SKALIERBARE KOSTENEFFIZIENTE HARDWARE- UNABHÄNGIGE LÖSUNGEN ZUR LANG-ZEIT DATENARCHIVIERUNG YOUR DATA.

Das Lern-Management System (LMS) StudIP an der Universität Osnabrück

Secure Data Solution

VMware VVOLs mit HP 3PAR

Kommunikationsübersicht XIMA FORMCYCLE Inhaltsverzeichnis

HA Linux Cluster in der Praxis

NEVARIS Build Systemvoraussetzungen

Michael Flachsel. Das SAN an der TUB. Aufbau und Funktion. 15. November 2007

PoINT Storage Manager Installation

exomium expansion R4 424E

Systemvoraussetzungen Stand

SolarWinds Engineer s Toolset

Virtualisierung mit iscsi und NFS

1 Einzelplatzversion. 1.1 Hardware. 1.2 Software* Stand Juli 2014

Einsatz Flashspeicher Vorteil oder Risiko

Storage Virtualisierung

ISCSI im Netzwerk und im Internet. Markus Sellner

GLASFASERNETZ DATACENTER RHEIN-NECKAR RHEIN-NECKAR-CLOUD MULTIMEDIA. Fixed Line BESCHREIBUNG. carrier ethernet TBFL_PFK_MA_

Migration von Ontap 7-Mode zu Clustered ONTAP

Verteiltes Persistenz-System. Mykhaylo Kabalkin

TIM AG. BASYS. Dipl. Informatiker (FH) Harald Will Consultant

Panda GateDefender Software eseries ERSTE SCHRITTE

Entwicklungen bei der Linux Clustersoftware

INHALT. 1 NSA-320 als Logging Version

herzlich vsankameleon Anwendungsbeispiel Titelmasterformat durch Klicken bearbeiten willkommen Titelmasterformat durch Klicken bearbeiten

Internet Explorer Version 6

ACDSee Pro 2. ACDSee Pro 2 Tutorials: Übertragung von Fotos (+ Datenbank) auf einen anderen Computer. Über Metadaten und die Datenbank

Standortübergreifende Cluster mit RHEL/CentOS (stretched Cluster)

Preisvergleich ProfitBricks - Amazon Web Services M3 Instanz

! " # $ " % & Nicki Wruck worldwidewruck

TERRA CLOUD. TERRA NAS Hybrid Lösung

Erzeugung enormer Datenvolumina aus hochaufgelösten anatomischen MRT-Messungen

Installation SQL- Server 2012 Single Node

Transkript:

Erfahrungen mit parallelen n frank.mietke@informatik.tu-chemnitz.de Fakultätsrechen- und Informationszentrum (FRIZ) Professur Rechnerarchitektur Technische Universität Chemnitz 25.09.2007 - Megware HPC Users Meeting

Gliederung 1 2 3 4

Gliederung 1 2 3 4

Speicherwachstum Alle 18 Monate Verdopplung Speicherbedarf (IDC) Gesetzliche Regularien (Archivierung, Verfügbarkeit usw.) Ressourcen-intensive Anwendungen (z.b. HPC) > Speichernetze grundlegend wie DB und LAN > Parallele finden breiten Einsatz

Speicherwachstum Alle 18 Monate Verdopplung Speicherbedarf (IDC) Gesetzliche Regularien (Archivierung, Verfügbarkeit usw.) Ressourcen-intensive Anwendungen (z.b. HPC) > Speichernetze grundlegend wie DB und LAN > Parallele finden breiten Einsatz Gary Grider s HPC Faustregel: 1GB/s zum I/O-System für jedes TFlop Leistung

Festplatten Durchsatz (SATA) Bild entnommen von www.storagereview.com (Anfang 2006)

Festplatten Durchsatz (SCSI) Bild entnommen von www.storagereview.com (Anfang 2006)

Amdahl s Law 1 S = (1 f ) + f k S Effektiver Speedup f Anteil welcher Speedup erfährt k Speedup des f Anteils

Amdahl s Law 1 S = (1 f ) + f k S Effektiver Speedup f Anteil welcher Speedup erfährt k Speedup des f Anteils Beispiel: 10% I/O und 90% Berechnung. Bei Speedup von 10 der Berechnung?? Bei Speedup von 100 der Berechnung??

Auswege aus diesen Speichernöten Einzelne Festplatte aktuell bis 1TB internes RAID (Redundant Array of Independant Disks)

Auswege aus diesen Speichernöten Einzelne Festplatte aktuell bis 1TB internes RAID (Redundant Array of Independant Disks) DAS (Direct Attached Storage)

Auswege aus diesen Speichernöten Einzelne Festplatte aktuell bis 1TB internes RAID (Redundant Array of Independant Disks) DAS (Direct Attached Storage) NAS (Network Attached Storage)

Auswege aus diesen Speichernöten Einzelne Festplatte aktuell bis 1TB internes RAID (Redundant Array of Independant Disks) DAS (Direct Attached Storage) NAS (Network Attached Storage) SAN ( Network) Fibre-Channel iscsi / InfiniBand

Auswege aus diesen Speichernöten Einzelne Festplatte aktuell bis 1TB internes RAID (Redundant Array of Independant Disks) DAS (Direct Attached Storage) NAS (Network Attached Storage) SAN ( Network) Fibre-Channel iscsi / InfiniBand Parallele

Gliederung 1 2 3 4

Allgemein Speicherzentriertes Storage Speicherkonsolidierung Statt SCSI-Kabel nun neues Netzwerk Fibre-Channel oder iscsi Multipathing Blockbasiert, SCSI-Schnittstelle

SAN Aufbau Bild entnommen aus dem Buch Speichernetze von U. Troppens und R. Erkens

Gliederung 1 2 3 4

Wieso das Alles? Klassisch: Nutzung von Netzwerkdateisystemen (AFS, NFS, CIFS usw.) Aber: Was, wenn ein großer Job Checkpointing durchführt? Beispiel: Cluster mit 128 Knoten und jeweils 4GB RAM. Checkpoint soll in 10 Minuten durchgeführt werden.

Wieso das Alles? Klassisch: Nutzung von Netzwerkdateisystemen (AFS, NFS, CIFS usw.) Aber: Was, wenn ein großer Job Checkpointing durchführt? Beispiel: Cluster mit 128 Knoten und jeweils 4GB RAM. Checkpoint soll in 10 Minuten durchgeführt werden. 51,2 GB/min oder 853MB/s

Anforderungen an ein Dateisystem für Cluster Sehr hohe Leistung (Lesen/Schreiben) Unterstützung von großen Dateien oder DB-Tabellen Multi-User und Multi-Client Unterstützung Datenkonsistenz Fehlertoleranz Skalierbarkeit

Arten von n Shared SAN FS Klienten importieren Storage direkt Block-level Sharing Geringe Klientenanzahl Re-Export möglich GFS, OpenGFS, PolyServe Matrix FS, GPFS u.a. Parallel FS Klient Server Struktur Server-level Sharing Große Anzahl Klienten möglich PVFS2, Lustre, Panasas, GPFS u.a.

Metadatenverwaltung Dient dem Auffinden der Daten Gibt Aufschluss über Verteilung Journaling und Locking Symmetrisch (In-Band) Dedizierter Metadatenserver nicht immer nötig Asymmetrisch (Out-of-Band)

Fallbeispiel: Lustre Bild entnommen aus Building Clustered Linux Systems

Clusterarchitektur 12 x 1GbE 530 Nodes...... InfiniBand Gigabit Ethernet 00 11 00 11 00 11 00 11 00 11 00 11 00 11 00 11 00 11 00 11 12 Vis. Node Storage COMPUTE (no HDD) LOGIN (RAID 5) Campus 01 01 01 MANAGE (RAID 5) MDS (Lustre) (HDD) RAM DISK (Lustre) (HDD) Vis. Node (HDD) IB REDUNDANT IB HA CONFIG (active/active) HA CONFIG (active/passive)

Storagearchitektur CHiC SAS OSS RAID Controller InfiniBand RAID Controller OSS IBM x3455 IBM x3455 MDS 00000 11111 00000 11111 00000 11111 00000 11111 5x

Storage Hardware CHiC 160x SATA (OSS) 16x SAS (MDS) 3,5GB/s (write) 1,7GB/s (read) RAID-5 / RAID-10

Programmierung paralleles IO Anwendungen mit nicht kontinuierlichen IO Zugriffen Aufspalten in viele kontinuierliche Zugriffe MPI-2 Feature (MPI-IO) nicht kontinuierliche Zugriffe nun mit einem Aufruf ROMIO Implementierung existiert PVFS-1/-2 ist optimiert

Gliederung 1 2 3 4

Erfahrungen Hardware Hochfrequenzkabel problematisch (IB, SAS) Trennung zu Stromkabel Warm-Kalt-Regionen vermeiden Festplattenleistungswerte stagnieren mindestens RAID-6 ist Pflicht LSI RAID-Controller SW-Handhabung SMART Monitoring nicht möglich

Erfahrungen Lustre Pro: Einfache/schnelle Installation (<20 Minuten) Sehr gute Netzwerkunterstützung (natives IB) Flexible Anbindung Plattenspeicher Sehr gute HA-Fähigkeiten (einfaches mount) Kontra: Quotaunterstützung auf bene fehlt Keine gute ACL Unterstützung (Gruppen) Metadatenserver noch nicht parallelisiert RAID über Server noch nicht möglich flock() Unterstützung schlecht

Was die Zukunft bringen wird SSD bzw. Festplatte + Flash RAID Performance / Level (Triple RAID) HSM (RAM->HDD) pnfs in Planung Konsolidierung Storage Markt (Sun + Lustre) Einsatz Virtualisierungstechniken

Interface Standard Zukunft OSD Object-based Storage Device, SNIA TWG Object Interface anstatt Block-based Metadaten helfen beim Management Echtes Prefetch möglich Zusammenführung SAN + NAS Bild entnommen von SNIA TWG OSD

Danke für die Aufmerksamkeit Clusterführung CHiC gewünscht?