<div dir="ltr">There's no clear answer to this. It depends a bit on how you've segregated your resources.<div><br></div><div>In our environment, GPU and bigmem nodes are in their own partitions. There's nothing to prevent a user from specifying a list of potential partitions in the job submission, so there would be no need for them to do a post-submission "scontrol update jobid" to push a job into a partition that violated the spirit of the service.</div><div><br></div><div>Our practice has been to periodically look at running jobs to see if they are using (or have used, in the case of bigmem) less than their requested resources, and send them a nastygram telling them to stop doing that.</div><div><br></div><div>Creating a LUA submission script that, e.g., blocks jobs from the gpu queue that don't request gpus only helps to weed out the naive users. A subversive user could request a gpu and only use the allocated cores and memory. There's no way to deal with this other than monitoring running jobs and nastygrams, with removal of access after repeated offenses.</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Dec 16, 2021 at 3:36 PM Jordi Blasco <<a href="mailto:jbllistes@gmail.com">jbllistes@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Hi everyone,<div><br></div><div>I was wondering if there is a way to prevent users from updating their jobs with "scontrol update job". </div><div><br></div><div>Here is the justification.</div><div><br></div><div>A hypothetical user submits a job requesting a regular node, but he/she realises that the large memory nodes or the GPU nodes are idle. Using the previous command, users can request the job to use one of those resources to avoid waiting without a real need for using them.</div><div><br></div><div>Any suggestions to prevent that?</div><div><br></div><div>Cheers,</div><div><br></div><div>Jordi</div><div><br></div><div><font face="monospace">sbatch --mem=1G -t 0:10:00 --wrap="srun -n 1 sleep 360"<br>scontrol update job 791 Features=smp<br><br></font></div><div><font face="monospace">[user01@slurm-simulator ~]$ sacct -j 791 -o "jobid,nodelist,user"<br>       JobID        NodeList      User<br>------------ --------------- ---------<br>791                    smp-1    user01</font><br></div></div>
</blockquote></div>