HLRN III - HPC Ressource für Norddeutschland



Ähnliche Dokumente
Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland

Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ

CLAIX Vorstellung und Technik Christian Terboven

MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz

Herausforderungen des Enterprise Endpoint Managements

Systemanforderungen (Mai 2014)

Well-Balanced. Performance Tuning

Mindestanforderungen an Systemumgebung Für die Nutzung von excellenttango

Erste Erfahrungen mit Installation und Betrieb

Big Data in der Forschung

Wissenschaftliches Rechnen an der Christian- Albrechts-Universität zu Kiel

NEC SX-ACE HPC-System

NbI-HS. NbIServ Bethenhausen Bethenhausen

Persona-SVS e-sync GUI/Client Installation

Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner. Dr. Andreas Wolf. Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum

Windows HPC Server 2008 aus der Betreiberperspektive

ZKI AK Supercomputing Herbsttagung Scientific Computing in Düsseldorf

Systemvoraussetzungen winvs office winvs advisor

PROLAG WORLD 2.0 PRODUKTBESCHREIBUNG SERVERSYSTEM, CLUSTERSYSTEME FÜR PROLAG WORLD

Panda GateDefender Software eseries ERSTE SCHRITTE

Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen

Flash Memory in Action Konfigurationen und Möglichkeiten

High Performance Datenerfassung Tests am Beispiel WEGA

Bevölkerung mit Migrationshintergrund an der Gesamtbevölkerung 2012

Manycores: Hardware und Low-Level Programmierung

OS-Virtualisierung mit Solaris Zonen in der Praxis

Systemvoraussetzungen

Systemvoraussetzungen

Software zur Anbindung Ihrer Maschinen über Wireless- (GPRS/EDGE) und Breitbandanbindungen (DSL, LAN)

Oracle EngineeredSystems

Technische Basis für den Betrieb von ONTRAM

bwgrid heute ein Überblick Sven Hermann (KIT)

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. Dipl.-Inform. Joachim Jäckel

HPC an der Uni Mainz

Fallstudie HP Unified WLAN Lösung

Virtuelle Maschinen. von Markus Köbele

Einsatzbedingungen FAMOS 3.10

Ein buchner Unternehmen: Starke Software Gmbh Lise-Meitner-Str Schwentinental Tel.:

Ein buchner Unternehmen: Starke Software Gmbh Lise-Meitner-Str Schwentinental Tel.:

Systemvoraussetzungen

INDEX. Netzwerk Überblick. Benötigte Komponenten für: Windows Server Windows Server 2008 R2. Windows Server 2012

Systemvoraussetzungen

Fragen zur GridVis MSSQL-Server

HANDBUCH LSM GRUNDLAGEN LSM

AxxonSoft. Softwareplattform. Axxon Smart. Empfohlene Plattformen. Version 1.3. Мoskau

Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung

Systemanforderungen Verlage & Akzidenzdruck

Preisvergleich ProfitBricks - Amazon Web Services M3 Instanz

NTCS BMD TECHNIK SYSTEMVORAUSSETZUNGEN

Systemanforderungen Verlage & Akzidenzdruck

Effizient, sicher und flexibel: Desktop-Virtualisierung mit Citrix XenDesktop

Unternehmensname Straße PLZ/Ort Branche Mitarbeiterzahl in Deutschland Projektverantwortlicher Funktion/Bereich * Telefon

Version Deutsch

Systemvoraussetzungen

Systemvoraussetzungen

_Hardware Systemvoraussetzungen_

Systemanforderungen. Sage Personalwirtschaft

CHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm

ProSeminar Speicher- und Dateisysteme

Next Generation IaaS von ProfitBricks

Daten: Gründungsjahr 1995 Schwerpunkte Oracle, VMware, Microsoft, Linux und Novell Ausschließlich zertifizierte Techniker:

DNS 323 Wiederherstellung von gelöschten Dateien (bzw. von als in Windows als gelöscht markierten Dateien ) aus einem ext2 Dateisystem

Switching. Übung 7 Spanning Tree. 7.1 Szenario

Der Nutzen und die Entscheidung für die private Cloud. Martin Constam Rechenpower in der Private Cloud 12. Mai 2014

Verfügbarkeit von Applikationen und Failover Szenarien. Winfried Wojtenek.

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte

Anleitung zur Nutzung des SharePort Utility

Installationsanleitung WSCAD Elektrohandwerk

Einführung FDRUPSTREAM. im Rechenzentrum der Zentralen Datenverarbeitung der Finanzverwaltung Rheinland-Pfalz

Systeminformationen. Systemanforderungen

magnitude Erste Erfahrungen mit dem neuen HPC-System der UDE

Installationshinweise für Serverbetrieb von Medio- Programmen

Geoportal Raumordnung Baden-Württemberg

Logischer Aufbau von Storagesystemen. Ernst Fankhauser

Systemvoraussetzungen Stand

Entwicklungen bei der Linux Clustersoftware

Parallels Mac Management 3.5

Hyper-V Grundlagen der Virtualisierung

( ZIH ) Zentrum für Informationsdienste und Hochleistungsrechnen. Kooperation mit Microsoft und Dell

Dialogik Cloud. Die Arbeitsumgebung in der Cloud

SuSE SmartClient Framework

C C. Hochleistungsrechnen (HPC) auf dem Windows Compute Cluster des RZ der RWTH Aachen. 1 WinHPC Einführung Center. 31.

1 Einzelplatzversion. 1.1 Hardware. 1.2 Software* Stand Juli 2014

enerpy collaborative webased workflows collaborative webbased groupware INDEX 1. Netzwerk Überblick 2. Windows Server 2008

Ein buchner Unternehmen: Starke Software Gmbh Lise-Meitner-Str Schwentinental Tel.:

Systemanforderungen. Sage Personalwirtschaft

Microsoft SharePoint. share it, do it!

Beschrieb mobiler Schulungsraum

Vorstellung - "Personal Remote Desktop" für (fast) alle Hardwareplattformen und Betriebssysteme

EINSATZ VON MICROSOFT TERMINAL-SERVICES ODER CITRIX METAFRAME

Tutorial Windows XP SP2 verteilen

LogApp - Security Information und Event Management leicht gemacht!

Deep Learning Appliance 4U Die Ready-to-Brain Komplett-Lösung

Systemvoraussetzungen: DOMUS NAVI für DOMUS 4000 Stand 02/15

Betreibermodelle für Personalsoftware

Rundum-G. Die Anforderungen durch ständig steigende

A1 Desktop Security Installationshilfe. Symantec Endpoint Protection 12.1 für Windows/Mac

Inhaltsangabe zu den Systemvoraussetzungen:

Virtuelle Desktops. Virtuelle Desktops. an der TU Chemnitz. Andreas Heik. TU-Chemnitz, Universitätsrechenzentrum. 6.

IT- Wir machen das! Leistungskatalog. M3B Service GmbH Alter Sportplatz Lake Schmallenberg

Transkript:

HLRN III - HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 23. September 2014

Inhalt Der HLRN Verbund Der HLRN-III Architektur Cray XC30 Vergleich HLRN-II HLRN-III Betriebskonzept Software Holger Naundorf, HLRN-III 23. September 2014 Seite 2

Der HLRN Verbund Der HLRN wurde 2001 als Zusammenschluss der 6 nördlichen Bundesländer (Berlin, Bremen, Hamburg, Mecklenburg-Vorpommern, Niedersachsen und Schleswig-Holstein) gegründet. Ende 2012 ist Brandenburg als 7. Mitglied beigetreten. Standorte der Hardware sind Berlin (Konrad-Zuse-Zentrum) Hannover (Leibniz Universität IT Services) Holger Naundorf, HLRN-III 23. September 2014 Seite 3

Historie: HLRN-I und HLRN-II HLRN-I 40 Mio DM (2002-2008) 1024 CPUs (IBM Power) 5.2 TFLOP/s peak HLRN-II 30 Mio EUR (2008-2013) 25k CPU Kerne (Intel x86) 300 TFLOP/s peak (möglichst) symmetrischer Aufbau in Berlin und Hannover 10 Gbit Verbindung zwischen den Sites einheitliche Nutzer und Projektverwaltung dezentrales Netzwerk von Fachberatern zur Unterstützung der Nutzer Holger Naundorf, HLRN-III 23. September 2014 Seite 4

HLRN-III November 2010: Antragsskizze an die DFG Juli 2011: Genehmigung des Vollantrags März 2012: EU weite Aussschreibung des HLRN-III im Verhandlungsverfahren August 2012: Beginn der Verhandlungen mit IBM und Cray Oktober 2012: Finale Angebote nach drei Verhandlungsrunden Dezember 2012: Vertragsabschluss mit Cray Oktober 2013: Betriebsbereitschaft HLRN-III Phase 1 in Berlin Dezember 2013: Betriebsbereitschaft HLRN-III Phase 1 in Hannover September 2014: Installation HLRN-III Phase 2 Holger Naundorf, HLRN-III 23. September 2014 Seite 5

HLRN-III Anforderungen Investitionssumme und Räumlichkeiten (30 M EUR) Limitierung der Betriebskosten (Wartung, Strom und Klima) (2 M EUR pro Jahr und Site für 5 Jahre) Erhalt der Expertise aus dem HLRN-II (Forderung mindestens ein Teil der MPP Komponente x86 CPU + Linux) extrem heterogener Anwendungsmix, d.h. die Leistungsbewertung kann nicht an einem singulären Benchmark festgelegt werden Anbieter mussten Leistungszusagen für 8 repräsentative Applikationen abgeben Garantierte Lauffähigkeit aller großen ISV und OpenSource Pakete Vorgaben für weitere Komponenten: SMP Knoten, Pre/Post-Processing und Dateisysteme Holger Naundorf, HLRN-III 23. September 2014 Seite 6

HLRN-III Hardware Phase 1 symmetrisch in Berlin + Hannover 4 Racks Cray XC30 744 Knoten (2x 12core Intel Ivy Bridge, 64GB RAM) Aries Interconnect 17856 Cores 46 TB Memory 329 TFlops peak 2 Pre/Post Knoten (4x 8core Intel Sandy Bridge, 768GB RAM) 1.4 PB Work-Filesystem (Lustre) 20GB/s Bandbreite 680TB /home /sw etc. (10GigE NFS/GPFS) SMP Komponente in Hannover 32 Knoten 4x 8core Intel Sandy Bridge 256GB RAM 12 TB lokale Festplatten Infiniband FDR (Lustre + MPI) Holger Naundorf, HLRN-III 23. September 2014 Seite 7

HLRN-III Hardware Phase 2 Berlin: 6 Racks Cray XC30 1128 Knoten (2x 12core Intel Haswell, 64GB RAM) 27072 Cores, 71 TB Memory, 1040 TFlops peak Hannover: 5 Racks Cray XC30 936 Knoten (2x 12core Intel Haswell, 64GB RAM) 22464 Cores, 59 TB Memory, 863 TFlops peak nur in Hannover 32 weitere SMP Knoten: 4x 10core Intel Ivy Bridge 512GB RAM 24 TB lokale Festplatten Infiniband FDR (Lustre + MPI) Lustre pro Site: 2.3 PB Work-Filesystem 31GB/s Bandbreite 2 weitere Pre/Post Knoten (4x 10core Intel Ivy Bridge, 1.5 TB RAM) pro Site Holger Naundorf, HLRN-III 23. September 2014 Seite 8

Endausbau MPP Komponente 3552 Knoten, 85k Cores, 222TB RAM, 2.5PFlops peak SMP Komponente 64 Knoten, 2300 Cores, 24TB RAM Work Dateisystem Lustre, 7.2PB Kapazität, 100GB/s I/O Bandbreite 8 Pre/Post Knoten, /home (680TB), Login Knoten,... Berlin: 4 Knoten Intel Xeon Phi Mini-Cluster Hannover: 10 Nvidia K40 im SMP System Holger Naundorf, HLRN-III 23. September 2014 Seite 9

Schema einer Site Holger Naundorf, HLRN-III 23. September 2014 Seite 10

HLRN-III Architektur Aufbau der Cray XC30 (Cascade) Die Kühlung erfolgt transversal. Packung der MPP Knoten in den XC30 Racks. Holger Naundorf, HLRN-III 23. September 2014 Seite 11

Aries Netzwerk Ein Aries Router pro Blade, direkt mit den PCIe 3.0 x16 Lanes eines Knotens verbunden. 1.3 µs Latenz 16GB/s Durchsatz (bidirektional) Knoten Router 16 Router werden über die Chassis-Backplane verbunden 6 Chassis werden elektrisch verkabelt optische Verkabelung zwischen den Gruppen Holger Naundorf, HLRN-III 23. September 2014 Seite 12

HLRN-III vs. HLRN-II Anzahl Cores (MPP): 20k 85k größtes MPP Segment: 7680 cores 44920 cores RAM: 100TB 222TB peak Performance: 240 TFlops 2.5 PFlops Work Filesystem: 1.6 PB 7.2 PB Racks: 100 30 Leistungsaufnahme: 1.6 MW 1.6 MW Holger Naundorf, HLRN-III 23. September 2014 Seite 13

HLRN-III Betriebskonzept Zwei Standorte ein System Einheitliche Nutzerverwaltung Ein Accounting für beide Systeme Moab wird als Grid betrieben - Jobs aus H können auch in B laufen Vorteile: mehr Personal Raid1 Effekt bei Ausfällen und Wartung doppelte Datenhaltung möglich Betriebskosten werden geteilt Nachteile: Partitionierung - maximale Problemgröße halbiert Sites nach einiger Zeit leicht abweichend konfiguriert doppelte Datenhaltung nötig mehr Infrastruktur Holger Naundorf, HLRN-III 23. September 2014 Seite 14

HLRN-III Software (System) OS: Cray Linux Environment (CLE) auf der XC30, SLES auf den SMP und Pre/Post Knoten Compiler: GNU, Intel und Cray MPI: Intel MPI und Cray mpt Intel MKL + Cray Scientific Libraries Allinea DDT Debugger Intel und Cray Performance und Analysis Tools Batch: Moab/Torque HPC Suite Enterprise Edition Ein Cray Mitarbeiter zur Anwenderunterstützung und Portierung von OpenSource Paketen und Nutzerprogrammen. Holger Naundorf, HLRN-III 23. September 2014 Seite 15

HLRN-III Software (User) Bereitstellung von optimierten Anwenderprogrammen durch Module Ingenieurwissenschaft abaqus, fluent, cfx... Chemie cp2k, gromacs, namd, vasp... Bibliotheken boost, netcdf, hdf5, fftw... Unterstützung beim Bau von Software durch Cray, Betreiberzentren und Fachberater Holger Naundorf, HLRN-III 23. September 2014 Seite 16

Gottfried (P1) Holger Naundorf, HLRN-III 23. September 2014 Seite 17

Konrad (P2) Holger Naundorf, HLRN-III 23. September 2014 Seite 18