<div dir="ltr"><div dir="ltr"><div dir="ltr">Dear all,<div><br></div><div>     Does anyone know how to set #SBATCH options to get multiple GPU cards from different worker nodes?</div><div><br></div><div>     One of our users would like to apply for 16 NVIDIA V100 cards for his job, and  there are 8 GPU cards on each worker node, I have tried the following #SBATCH options:</div><div><br></div><div>      #SBATCH --partition=gpu </div><div>      #SBATCH --qos=normal</div><div>      #SBATCH --account=u07</div><div>      #SBATCH --job-name=cross </div><div>      #SBATCH --nodes=2 </div><div>      #SBATCH --mem-per-cpu=1024 </div><div>      #SBATCH --output=test.32^4.16gpu.log </div><div>      #SBATCH --gres=gpu:v100:16</div><div><br></div><div>      but got the sbatch error message : </div><div>      sbatch: error: Batch job submission failed: Requested node configuration is not available</div><div><br></div><div>      And I found a similar question on stack overflow: </div><div> <a href="https://stackoverflow.com/questions/45200926/how-to-access-to-gpus-on-different-nodes-in-a-cluster-with-slurm">https://stackoverflow.com/questions/45200926/how-to-access-to-gpus-on-different-nodes-in-a-cluster-with-slurm</a></div><div><br></div><div>      And it is said that multiple GPU cards allocation on different worker nodes are not available, the post is in 2017, is it still true at present?</div><div><br></div><div>      Thanks a lot for your help.</div><div><br></div><div>Best regards,</div><div>Ran     </div></div></div></div>