<div dir="ltr"><div>Renat,</div><div>   I know that this is not going to be helpful.  I can understand that perhaps if you are using NFS storage then 20(*) processes might not be able to open files at the same time.</div><div>I would consider the following:</div><div><br></div><div>a) looking at your storage. This is why HPC systems have high performance and parallel storage systems.</div><div>    You could consider isntalling a high performance storage system </div><div><br></div><div>b) if there is no option to get better storage, tne I ask how is this data being accessed?</div><div>    If you have multiple compute nodes, and the data is being read only, then consider copying the data across to TMPDIR on each compute node as a pre-job or at the start of the job.</div><div>If the speed of access to the data is critical then you might even consider creating a ramdisk for TMPDIR - then you might even see some nice better performance.</div><div><br></div><div><br></div><div>20 - err that does sound a bit low...</div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On 9 November 2017 at 15:55, Gennaro Oliva <span dir="ltr"><<a href="mailto:oliva.g@na.icar.cnr.it" target="_blank">oliva.g@na.icar.cnr.it</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Renat,<br>
<span><br>
On Thu, Nov 09, 2017 at 03:46:23PM +0100, Yakupov, Renat /DZNE wrote:<br>
> I tried that. It doesnt even queue the job with an error:<br>
> sbatch: unrecognized option '--array=1-24'<br>
> sbatch: error: Try help for more information.<br>
<br>
</span>what version of slurm are you using?<br>
Regards<br>
<span class="HOEnZb"><font color="#888888">--<br>
Gennaro Oliva<br>
<br>
</font></span></blockquote></div><br></div>