<div dir="auto">Hi<div dir="auto">You may have to read --nodelist in the sbatch manual <a href="https://slurm.schedmd.com/sbatch.html">https://slurm.schedmd.com/sbatch.html</a></div><div dir="auto"><br></div><div dir="auto"><br></div></div><br><div class="gmail_quote"><div dir="ltr">On Mon, May 7, 2018, 21:29 Andreas Hilboll <<a href="mailto:hilboll%2Bslurm@uni-bremen.de">hilboll+slurm@uni-bremen.de</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Dear SLURM experts,<br>
<br>
we have a cluster of 56 nodes with 28 cores each.  Is it possible <br>
to<br>
limit the number of jobs of a certain name which concurrently run <br>
on<br>
one node, without blocking the node for other jobs?<br>
<br>
For example, when I do<br>
<br>
   for filename in runtimes/*/jobscript.sh; do<br>
     sbatch -J iojob -n 1 $filename<br>
   done<br>
<br>
How can I assure that only one of these jobs runs per node?  The <br>
jobs<br>
are very lightweight computationally and only use 1 core each, but<br>
since they are rather heavy on the I/O side, I'd like to ensure <br>
that<br>
when a job runs, it doesn't have to share the available I/O <br>
bandwidth<br>
with other jobs.  (This would actually work since usually our <br>
other<br>
jobs are not I/O intensive.)<br>
<br>
>From reading the manpage, I couldn't figure out how to do this.<br>
<br>
<br>
Sunny greetings,<br>
 Andreas<br>
<br>
</blockquote></div>