HPC @ RZ.RWTH-AACHEN.DE



Ähnliche Dokumente
C C. Hochleistungsrechnen (HPC) auf dem Windows Compute Cluster des RZ der RWTH Aachen. 1 WinHPC Einführung Center. 31.

Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen

Hochleistungsrechnen mit Windows Verifikations- und Analyseprogramme Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen

MPI-Programmierung unter Windows mit MPICH2. Installieren von MPICH2, Übersetzen, Ausführen und Debuggen von MPI-Programmen. Christian Terboven

Die deutsche Windows HPC Benutzergruppe

der RWTH Aachen Konfiguration und parallele Programmierung Dieter an Mey

XSC. Reimar Bauer, Rebecca Breu. Dezember Forschungszentrum Jülich. Weihnachtsfeier, 10. Dezember

Supercomputer Blue Gene/L

UBELIX University of Bern Linux Cluster

Hochleistungsrechnen mit Windows Visual Studio Intel Compiler Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen

Systemanforderungen Verlage & Akzidenzdruck

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien

Windows HPC Server 2008 aus der Betreiberperspektive

RWTH - Umgebung. Übersicht. Seite 1. RWTH-Umgebung. Sun Grid Engine. Dateimanagement. Archiv. Backup. Seite 2. RWTH-Umgebung

science + computing ag

HLRN III - HPC Ressource für Norddeutschland

Das HLRN-System. Peter Endebrock, RRZN Hannover

Systemanforderungen Verlage & Akzidenzdruck

Sun HPC Agenda

Der neue Hessische Hochleistungsrechner HHLR

Dienstleistungen Abteilung Systemdienste

EEX Kundeninformation

Paradigmenwechsel: Von der Rechner-zentrierten zur Informationszentrierten DV Skalierbarkeit: Erweiterung von Ressourcen ohne Erhöhung der

CHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm

Fluent auf Windows HPC Server ict ag - Mit uns können Sie rechnen

ZKI AK Supercomputing Herbsttagung Scientific Computing in Düsseldorf

Mensch-Maschine-Interaktion 2 Übung 1

Systemanforderungen Verlage & Akzidenzdruck

Systemanforderungen Verlage & Akzidenzdruck

Hochleistungsrechnen mit Windows. Compilieren, Ausführen und Debuggen paralleler Programme. Christian Terboven

Xeon, Opteron, UltraSPARC höher, schneller, weiter?

Agenda. HPC-Benutzerkolloquium. EM64T-Clustererweiterung. EM64T-Clustererweiterung am RRZE

HPC an der Uni Mainz

Betrieb eines heterogenen Clusters

Vorstellung RWTH Gründerzentrum

TSM 5.2 Experiences Lothar Wollschläger Zentralinstitut für Angewandte Mathematik Forschungszentrum Jülich

Intel Cluster Studio. Michael Burger FG Scientific Computing TU Darmstadt

SAP Systeme. Windows-Basierend. Heinrich Gschwandner SAP Competence Center. November 2004

Visionen für die Betriebliche Weiterbildung

Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland

Systemvoraussetzungen

INDEX. Netzwerk Überblick. Benötigte Komponenten für: Windows Server Windows Server 2008 R2. Windows Server 2012

PRODUKTKATALOG VOM 1. FEBRUAR 2009

moderne Prozessoren Jan Krüger

Galaxy V7 in Deutsch ist ab sofort frei gegeben. Die Versionen Französisch, Italienisch und Englisch folgen spätestens Ende Oktober 2012.

Wissenschaftliches Hochleistungsrechnen am IGG/Universität Bonn

best Open Systems Day 20. April 2005 Migration auf 64Bit, - steigt die Performance um Faktor 4? Rüdiger Gunther

ESPRIT-Installationsanleitung Version 2013

Mindestanforderungen an Systemumgebung Für die Nutzung von excellenttango

CHARON-AXP Alpha Hardwarevirtualisierung

Erfahrungen bei der Installation und vergleichende Messungen zu verschiedenen MPI Implementierungen auf einem Dual Xeon Cluster

Leistungsanalyse von Rechnersystemen

Kingston Technology WHD. November 30, Andreas Scholz, BDM Integration und Server D-A

-0 FDDI-Anschluß. m 256MB. m 512 MB Memory. Parallelrechner IBM SP. HRZ Uni Marburg. Frame 2. Frame 3. Frame 1. Ethernet mit allen Knoten

( ZIH ) Zentrum für Informationsdienste und Hochleistungsrechnen. Kooperation mit Microsoft und Dell

eridea AG Installation Eclipse V 1.4

Anforderungen BauPlus

UC4 Rapid Automation HP Service Manager Agent Versionshinweise

LOEWE-CSC and it s data center

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. Dipl.-Inform. Joachim Jäckel

Georg Hager Regionales Rechenzentrum Erlangen (RRZE)

Perceptive Document Composition

Ferienakademie Programmierkonzepte für Multi-Core Rechner. Tools: Profiler

Handwerk Trades. Arbeitswelten / Working Environments. Green Technology for the Blue Planet Clean Energy from Solar and Windows

Vom Web ins IoT: Schnelleinstieg in Tooling und Entwicklung

Cloud Pricing - Infrastruktur GI-Controlling 2011

SCHEIDBACH Computerhandel KG EDV-FACHBETRIEB MIT PERSÖNLICHER BERATUNG ASUS - LENOVO - TOSHIBA FUJITSU - HP. Notebook Preisliste. JUNI/Juli ***

MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz

NWZSUPERDOME. Einführung für Benutzer. Christian Mück-Lichtenfeld. Organisch-Chemisches Institut. May 16, 2007

Introduction Workshop 11th 12th November 2013

Totalview. Henrichs NEC Australia. Dieter an Mey

Lizenzierungs-Webcast

Unternehmen-IT sicher in der Public Cloud

Parallels Transporter Read Me

Marketing Update. Enabler / ENABLER aqua / Maestro II

ModProg 15-16, Vorl. 13

- info@hocomputer.de - Tel: (+49) / 0221 /

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen

OpenVMS virtualisiert auf x86 und x86-64

Linux-Cluster mit Raspberry Pi. Dr. René Richter Sächsische Studienakademie Dresden

Linux in allen Lebenslagen. Diskless Cluster und Lustre Erfahrungsbericht zum CHiC. Frank Mietke. Chemnitzer Linux-Tage 2007

Erste Erfahrungen mit Installation und Betrieb

2011 Oracle Corporation Customer Presentation Version 5.2.2/

The world we live in and Supercomputing in general

Virtualisierung am Beispiel des LRZ Stefan Berner

PRODUKTKATALOG VOM 2.AUGUST 2010

Alternativen zu Microsoft

Produzierendes Gewerbe Industrial production

Karlsruhe Institute of Technology Die Kooperation von Forschungszentrum Karlsruhe GmbH und Universität Karlsruhe (TH)

Systemvoraussetzungen für Autodesk Revit Produkte (gemäß Angaben von Autodesk)

Preisliste. Alle Preise verstehen sich zzgl. 16 % MwSt. Die Umrechnung in Euro erfolgt zum Tageskurs. SWsoft Control Panel Preise. Upgrade auf 30 USD

Computeranwendung in der Chemie Informatik für Chemiker(innen)

Prof. Dr. Vincent Heuveline


Installationsanleitung BROADCAST MANAGER 2011 (V 4.0) für Windows XP / Windows 7/8

ROOT Tutorial für D. Liko

Virtualisierung: Neues aus 2010 und Trends 2011

Checkliste Systemvoraussetzungen. Systemvoraussetzungen für den Datenbank-Server von MKS Goliath

Transkript:

HP @ RZ.RWTH-AAHEN.DE Sun Fire T2000 SunFire E25K PU and IO boards SunFire E25K luster F-AL Switch SunFire E6900 luster 1 HP @ RZ.RWTH-AAHEN.DE enter omputing and ommunication SunFire V40z luster

Inhalt ompute luster des Rechen- und Kommunikationszentrums (RZ) Der Linpack-Benchmark Die Top500-Liste der schnellsten Rechner 2 HP @ RZ.RWTH-AAHEN.DE enter omputing and ommunication

ompute luster RWTH Aachen #nodes model processor type ompute luster der RWTH Aachen Feb 07 #procs #cores #threads clock [MHz] memory [GB] 4 SF E25K UltraSPAR IV 72 144 144 1050 288 3 HP @ RZ.RWTH-AAHEN.DE enter accumulated permance network [TFLOPS] Gigabit Ethernet Fire Link 1.21 1.15 omputing and ommunication accumulated memory [TB] Gigabit Ethernet Fire Link 1.84 1.54 16 SF E6900 UltraSPAR IV 24 48 48 1200 96 8 SF E2900 UltraSPAR IV 12 24 24 1200 48 Gigabit Ethernet 0.46 0.38 1 SF T2000 UltraSPAR T1 1 8 32 1000 8 Gigabit Ethernet 0.0001 0.01 64 SF V40z Opteron 848 4 4 4 2200 8 Gigabit Ethernet 1.13 0.51 Gigabit Ethernet 4 SF V40z Opteron 875 4 8 8 2200 16 Infiniband 0.14 0.06 2 SF X4600 Opteron 885 8 16 16 2600 32 Gigabit Ethernet 0.17 0.06 9 Dell 1950 Xeon 5160 (Woodcrest) 2 4 4 3000 8 Gigabit Ethernet Infiniband 0.22 0.07 108 sum 1042 1833 1857 5.16 3.79

System Management Frontend nodes interactive work, program development and testing, GUIs cluster.rz.rwth-aachen.de (USIV-Solaris 9) cluster-sol10.rz.rwth-aachen.de (USIV-Solaris 10) cluster-sun-x86.rz.rwth-aachen.de (OPT-Solaris 10) cluster-linux.rz.rwth-aachen.de (Opteron-Linux 64b) cluster-win.rz.rwth-aachen.de (Intel-Windows 64b) Batch system Sun Grid Engine: jobs (> 20 min) 4 HP @ RZ.RWTH-AAHEN.DE enter omputing and ommunication

Overview over HP Tools urrent program development environment HP on the Sun SPAR and Opteron systems at the RWTH 4 platms : 1. SPAR/Solaris 9/10, 64bit 2. Opteron/Solaris, 64 bit 3. Opteron/Linux and Intel/Windows, 64 bit 4. Opteron/Windows and Intel/Windows, 64 bit serial programming, shared memory parallelization, message passing compilers / MPI libraries, debugging tools, permance analysis tools 5 HP @ RZ.RWTH-AAHEN.DE enter omputing and ommunication

Programming Environment ompilers + Debugging Tools ompany ompiler Version Language OpenMP support Autopar Debugger Runtime Analysis US IV Opteron Xeon Sun Studio 11 F95//++ F95/++ F95/++ Sun Studio 12 α F95//++ F95/++ F95/++ dbx sunstudio dbx sunstudio 6 HP @ RZ.RWTH-AAHEN.DE enter analyzer, collect, er_print, gprof analyzer, collect, er_print, gprof Solaris Lin Win Lin Win X X X X X X Intel V9.1 F95/++ F95/++ Threading Tools F95/++ idb vtune X X vtune vtune Intel V10.0 beta F95/++ F95/++ Threading Tools F95/++ idb vtune X X vtune vtune Intel Guide V4.0 F90//++ F77/F90//++ Assure F77/F90//++ GuideView X GNU V4.0 F95/++ gdb gprof X X X X GNU V4.2 beta F95/++ F95/++ gdb gprof X X PGI V6.1 F77/F90//++ F77/F90//++ F77/F90//++ pgdbg pgprof X X Microsoft Visual Studio 2003 ++ Visual Studio X X Microsoft Visual Studio 2005 ++ ++ Visual Studio X X Etnus TotalView 8.0 X X X X omputing and ommunication

Programming Environment MPI Libraries and Tools ompany Version MPI2 support Debugger Runtime Analysis Plattm Network Sun HP lustertools 5 yes TotalView, Prism analyzer, mpprof Solaris 9 tcp, shm, FireLink Sun HP lustertools 6 yes TotalView analyzer, mpprof Solaris 10 tcp, shm Sun HP lustertools 7 based on OpenMPI yes TotalView analyzer Solaris 10 tcp, shm, infiniband Intel based on mpich2.x yes TotalView Intel Traceollector & Analyzer Linux tcp, shm, Infiniband ANL mpich 1.2.6 no TotalView jumpshot Sol, Lin, Win tcp, shm ANL mpich2 1.0.x yes TotalView Sol, Lin, Win tcp, shm Voltaire based on mpich 1.2.5 no? Linux tcp, shm, Infiniband Microsoft based on mpich2 yes Visual Studio w/ MS ompute luster Pack Windows tcp, shm, (Infiniband) Univ Dresden installation planned? Vampir-NG Sol, Lin any 7 HP @ RZ.RWTH-AAHEN.DE enter omputing and ommunication

Application Software FEM Abaqus Ansys Hyperworks Ls-Dyna Marc/Mentat Nastran/Patran hemie Gaussian Turbomole FD FX/TASFlow Fluent IEM-FD StarD Mathematik Maple Mathematica Misc Matlab/Simulink Tecplot Site license Parallel version available No site license 8 HP @ RZ.RWTH-AAHEN.DE enter omputing and ommunication

License onditions and Fees ommercial Application Software the responsilitiy of each user no commercial usage fees covered by the institutions ommercial development tools are provided by the ompilers MPI Debuggers Runtime Analysis tools 9 HP @ RZ.RWTH-AAHEN.DE enter omputing and ommunication

Job submission Sun Grid Engine qsub [options] scriptfile [- scriptarguments] Job deletion qdel job_id Job status inquiry qstat [options] -help -f #all queues and jobs -j job_id -u user Graphical Interface qmon 10 HP @ RZ.RWTH-AAHEN.DE enter omputing and ommunication

www.rz.rwth-aachen.de/computing/hpc/statistics/load/ 11 HP @ RZ.RWTH-AAHEN.DE enter omputing and ommunication

Some Web-links Web page of the SunHP workshop with more links and inmation http://www.rz.rwth-aachen.de/sunhpc Inmation related to HP at the RWTH http://www.rz.rwth-aachen.de/hpc/ Inmation related to the RWTH Sun Fire SMP luster http://www.rz.rwth-aachen.de/hpc/sun/ Sun Fire SMP luster Primer http://www.rz.rwth-aachen.de/hpc/primer Further reading: Batch system http://www.rz.rwth-aachen.de/hpc/batch Further reading: Software http://www.rz.rwth-aachen.de/computing/sw 12 HP @ RZ.RWTH-AAHEN.DE enter omputing and ommunication

Inhalt ompute luster des Rechen- und Kommunikationszentrums (RZ) Der Linpack-Benchmark und die Top500-Liste der schnellsten Rechner 13 HP @ RZ.RWTH-AAHEN.DE enter omputing and ommunication

Maßstab für Rechenleistung Der Linpack Benchmark Die theoretisch mögliche Leistung (peak permance), die durch die Taktrate und die Recheneinheiten definiert wird, kann nie erreicht werden. Deshalb als Maßstab Leistung bei der Lösung eines dichtbesetzten linearen Gleichungssystems LINPAK Benchmark (www.top500.org) M[ega]flops = Millionen Gleitpunktoperationen/Sekunde G[iga]flops, T[era]flops, P[eta]flops (jeweils Faktoren 10^3) Heutiger Spitzenreiter (28. Liste im Nov. 2006): IBM BlueGene/L mit 131072 Prozessoren, 32 TB Total Memory Lawrence Livermore National Laboratory (LLNL) Theoretische Spitzenleistung: 367 Tflops = 367000 Gflops Linpack: 280 Tflops 76% von Peak (Matrixgröße: N~1.769.471 ) Zum Vergleich Theoretische Spitzenleistung eines Dualcore Intel Xeon 5160 (Woodcrest), 3 GHz: 2 cores * 4 Ergebnissen/Takt (SSE) * 3 GHz = 24 Gflops 14 HP @ RZ.RWTH-AAHEN.DE enter omputing and ommunication

The TOP500 List 1.000.000 Gflops 100.000 10.000 RWTH: Peak Permance (R peak) RWTH: Linpack Permance TOP500: Rank 1 TOP500: Rank 50 1.000 100 10 1 93 TOP500: Rank 200 TOP500: Rank 500 P-Technology Moore's Law 94 95 96 Fujitsu VPP300 at Aachen University 97 98 99 00 01 Sun Fire luster at Aachen University 02 15 HP @ RZ.RWTH-AAHEN.DE enter 03 04 05 omputing and ommunication 06

Die aktuelle Top 20 der Top500-Liste Rank Site omputer ountry Procs RMax Nmax Processor 1 LLNL IBM Blue Gene USA 131072 280600 1769471 PowerP 440 700 2 Sandia Natl Lab ray Red Storm USA 26544 101400 1700000 AMD x86_64 Opteron D 2400 3 IBM IBM Blue Gene USA 40960 91290 983039 PowerP 440 700 4 LLNL IBM pseries p5 575 USA 12208 75760 1383600 POWER5 1900 5 Barcelona IBM Bladeenter PP Spain 10240 62630 0 PowerP 970 2300 6 Sandia Natl Lab Dell PowerEdge 1850 USA 9024 53000 0 Intel EM64T Xeon EM64 3600 7 EA Bull NovaScale 5160 France 9968 52840 0 Intel IA-64 Itanium 2 1600 8 NASA Ames SGI Altix USA 10160 51870 1290240 Intel IA-64 Itanium 2 1500 9 Titech Sun Fire x4600 luster Japan 11088 47380 1148160 AMD x86_64 Opteron D 2400 10 Oak Ridge Nal Lab ray XT3 USA 10424 43480 0 AMD x86_64 Opteron D 2600 11 Maui (MHP) Dell PowerEdge 1955 USA 5200 42390 0 Intel EM64T Xeon 51xx ( 3000 12 Tacc Dell PowerEdge 1955 USA 5200 41460 0 Intel EM64T Xeon 51xx ( 2667 13 FZJ IBM Blue Gene Germany 16384 37330 663551 PowerP 440 700 14 Earth Simulator NE Earth-Simulator Japan 5120 35860 1075200 NE 1000 15 Atomic Weapons Est ray XT3 UK 7812 32500 0 AMD x86_64 Opteron D 2600 16 ray Inc. ray XT4 USA 6696 27980 0 AMD x86_64 Opteron D 2600 17 ASTRON IBM Blue Gene Netherland 12288 27450 516095 PowerP 440 700 18 LRZ SGI Altix 4700 Germany 4096 24360 1139712 Intel IA-64 Itanium 2 1600 19 LLNL Intel Itanium2 Tiger4 - QUSA 4096 19940 975000 Intel IA-64 Itanium 2 1400 20 ambridge Univ Dell PowerEdge 1950 UK 2340 18270 713000 Intel EM64T Xeon 51xx ( 3000 16 HP @ RZ.RWTH-AAHEN.DE enter omputing and ommunication Proc. Freq.

Aachen on Rank 180 in e 2005 http://www.rz.rwth-aachen.de/hpc/sun/ Over 2 TeraFlop/s Linpack Permance April 2005. The upgrade from UltraSPAR III to UltraSPAR IV including an increase of the main memory capacity more than doubled our Linpack permance! A linear system with 499,200 unknowns was solved in 11:12:48.8 hours at an average speed of 2054.4 billion floating point operations per second (GFlop/s). The program had a total memory footprint of 2 Terabyte. 1276 processor cores were kept busy with 82,930,000,000 million floating point operations. 17 HP @ RZ.RWTH-AAHEN.DE enter omputing and ommunication