<div dir="ltr"><div>Dear Slurm Community, </div><div><br></div><div>We are looking for a way to assign tasks to specific GPUs in a multi-node job. <br></div><div><br></div><div>Let's consider a partition consisting of identical DGX-A100 nodes. <br></div><div><div>With exclusive mode, when selecting one A100 per node via `--gres` option, the first GPU, i.e. CUDA_VISIBLE_DEVICES=0, will always be selected.</div><br></div><div>[Slurm script] </div><div>#SBATCH --job-name=test<br>#SBATCH --partition=dgx<br>#SBATCH --nodes=2<br>#SBATCH --ntasks-per-node=1<br>#SBATCH --gres=gpu:1<br></div><div><br></div><div>Is a finer grain of control of GPU selection supported ?  For instance: </div><div><div><br></div><div>[Slurm script] </div></div><div>#SBATCH --nodelist=gpu01:id=0,gpu02:id=2 </div><div><br></div><div>The above would assign tasks to the 0th GPU and 2nd GPU on gpu01 and gpu02, respectively. </div><div>After going through both the manual and support list, this feature seems to be unsupported due to its niche use case. </div><div>But in case we overlook something trivial, or there is an ingenious way to achieve the same effect, we appreciate your suggestions. <br></div><div><br></div><div>Regards. </div><div>Viet-Duc</div></div>