<div dir="ltr"><font face="arial, sans-serif">Thanks Jeff ! </font><div><font face="arial, sans-serif"><br></font></div><div><font face="arial, sans-serif">We upgrade slurm to 18.08.4 and now work with Weight !  but the parameter its possible running with plugin <span style="color:rgb(23,43,77)">priority/multifactor ? </span></font></div><div><span style="color:rgb(23,43,77)"><font face="arial, sans-serif"><br></font></span></div><div><span style="color:rgb(23,43,77)"><font face="arial, sans-serif">Thanks in advance</font></span></div><div><span style="color:rgb(23,43,77)"><font face="arial, sans-serif"><br></font></span></div><div><span style="color:rgb(23,43,77)"><font face="arial, sans-serif" style="">Regards </font></span></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">El mar., 3 dic. 2019 a las 17:37, Sarlo, Jeffrey S (<<a href="mailto:JSarlo@central.uh.edu">JSarlo@central.uh.edu</a>>) escribió:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">





<div lang="EN-US">
<div class="gmail-m_7601153421357818494WordSection1">
<p class="MsoNormal"><span style="font-size:11pt;color:rgb(31,73,125)">Which version of slurm are you using?  I know in the early versions of 18.08 prior to 18.08.04 there was a bug with weights not working.  Once we got past 18.08.04,  then weights worked for us.<u></u><u></u></span></p>
<p class="MsoNormal"><span style="font-size:11pt;color:rgb(31,73,125)"><u></u> <u></u></span></p>
<p class="MsoNormal"><span style="font-size:11pt;color:rgb(31,73,125)">Jeff<u></u><u></u></span></p>
<p class="MsoNormal"><span style="font-size:11pt;color:rgb(31,73,125)">University of Houston - HPC<u></u><u></u></span></p>
<p class="MsoNormal"><span style="font-size:11pt;color:rgb(31,73,125)"><u></u> <u></u></span></p>
<p class="MsoNormal"><b><span style="font-size:10pt;font-family:Tahoma,sans-serif">From:</span></b><span style="font-size:10pt;font-family:Tahoma,sans-serif"> slurm-users [mailto:<a href="mailto:slurm-users-bounces@lists.schedmd.com" target="_blank">slurm-users-bounces@lists.schedmd.com</a>]
<b>On Behalf Of </b>Sistemas NLHPC<br>
<b>Sent:</b> Tuesday, December 03, 2019 12:33 PM<br>
<b>To:</b> Slurm User Community List<br>
<b>Subject:</b> Re: [slurm-users] Slurm configuration, Weight Parameter<u></u><u></u></span></p>
<p class="MsoNormal"><u></u> <u></u></p>
<div>
<p class="MsoNormal">Hi Renfro <u></u><u></u></p>
<div>
<p class="MsoNormal"><u></u> <u></u></p>
<div>
<p class="MsoNormal">I am testing this configuration, test configuration and as clean as possible:<u></u><u></u></p>
</div>
<div>
<p class="MsoNormal"><u></u> <u></u></p>
</div>
<div>
<p class="MsoNormal">====<u></u><u></u></p>
</div>
<div>
<p class="MsoNormal"><u></u> <u></u></p>
</div>
<div>
<p class="MsoNormal">NodeName=devcn050 RealMemory=3007 Features=3007MB Weight=200 State=idle Sockets=2 CoresPerSocket=1<br>
NodeName=devcn002 RealMemory=3007 Features=3007MB Weight=1 State=idle Sockets=2 CoresPerSocket=1<br>
NodeName=devcn001 RealMemory=2000 Features=2000MB Weight=500 State=idle Sockets=2 CoresPerSocket=1<br>
<br>
PartitionName=slims Nodes=devcn001,devcn002,devcn050 Default=yes Shared=yes State=up<u></u><u></u></p>
</div>
<div>
<p class="MsoNormal"><u></u> <u></u></p>
</div>
<div>
<p class="MsoNormal">===<u></u><u></u></p>
</div>
<div>
<p class="MsoNormal"><u></u> <u></u></p>
</div>
<div>
<p class="MsoNormal">In your config is necessary one plugin extra or parameter for option Weight?  <u></u><u></u></p>
</div>
<div>
<p class="MsoNormal"><u></u> <u></u></p>
</div>
</div>
<div>
<p class="MsoNormal">The configuration does not work as expected.<u></u><u></u></p>
</div>
<div>
<p class="MsoNormal"><u></u> <u></u></p>
</div>
<div>
<p class="MsoNormal">Regards,<u></u><u></u></p>
</div>
</div>
<p class="MsoNormal"><u></u> <u></u></p>
<div>
<div>
<p class="MsoNormal">El sáb., 30 nov. 2019 a las 10:30, Renfro, Michael (<<a href="mailto:Renfro@tntech.edu" target="_blank">Renfro@tntech.edu</a>>) escribió:<u></u><u></u></p>
</div>
<blockquote style="border-top:none;border-right:none;border-bottom:none;border-left:1pt solid rgb(204,204,204);padding:0in 0in 0in 6pt;margin-left:4.8pt;margin-right:0in">
<p class="MsoNormal" style="margin-bottom:12pt">We’ve been using that weighting scheme for a year or so, and it works as expected. Not sure how Slurm would react to multiple NodeName=DEFAULT lines like you have, but here’s our node settings and a subset of
 our partition settings.<br>
<br>
In our environment, we’d often have lots of idle cores on GPU nodes, since those jobs tend to be GPU-bound rather than CPU-bound. So in one of our interactive partitions, we let non-GPU jobs take up to 12 cores of a GPU node. Additionally, we have three memory
 configurations in our main batch partition. We want to bias jobs to running on the smaller-memory nodes by default. And the same principle applies to our GPU partition, where the smaller-memory GPU nodes get jobs before the larger-memory GPU node.<br>
<br>
=====<br>
<br>
NodeName=gpunode[001-003]  CoresPerSocket=14 RealMemory=382000 Sockets=2 ThreadsPerCore=1 Weight=10011 Gres=gpu:2<br>
NodeName=gpunode004  CoresPerSocket=14 RealMemory=894000 Sockets=2 ThreadsPerCore=1 Weight=10021 Gres=gpu:2<br>
NodeName=node[001-022]  CoresPerSocket=14 RealMemory=62000 Sockets=2 ThreadsPerCore=1 Weight=10201<br>
NodeName=node[023-034]  CoresPerSocket=14 RealMemory=126000 Sockets=2 ThreadsPerCore=1 Weight=10211<br>
NodeName=node[035-040]  CoresPerSocket=14 RealMemory=254000 Sockets=2 ThreadsPerCore=1 Weight=10221<br>
<br>
PartitionName=any-interactive Default=NO MinNodes=1 MaxNodes=4 MaxTime=02:00:00 AllowGroups=ALL PriorityJobFactor=3 PriorityTier=1 DisableRootJobs=NO RootOnly=NO Hidden=NO Shared=NO GraceTime=0 PreemptMode=OFF ReqResv=NO DefMemPerCPU=2000 AllowAccounts=ALL
 AllowQos=ALL LLN=NO MaxCPUsPerNode=12 ExclusiveUser=NO OverSubscribe=NO OverTimeLimit=0 State=UP Nodes=node[001-040],gpunode[001-004]<br>
<br>
PartitionName=batch Default=YES MinNodes=1 MaxNodes=40 DefaultTime=1-00:00:00 MaxTime=30-00:00:00 AllowGroups=ALL PriorityJobFactor=1 PriorityTier=1 DisableRootJobs=NO RootOnly=NO Hidden=NO Shared=NO GraceTime=0 PreemptMode=OFF ReqResv=NO DefMemPerCPU=2000
 AllowAccounts=ALL AllowQos=ALL LLN=NO ExclusiveUser=NO OverSubscribe=NO OverTimeLimit=0 State=UP Nodes=node[001-040]<br>
<br>
PartitionName=gpu Default=NO MinNodes=1 DefaultTime=1-00:00:00 MaxTime=30-00:00:00 AllowGroups=ALL PriorityJobFactor=1 PriorityTier=1 DisableRootJobs=NO RootOnly=NO Hidden=NO Shared=NO GraceTime=0 PreemptMode=OFF ReqResv=NO DefMemPerCPU=2000 AllowAccounts=ALL
 AllowQos=ALL LLN=NO MaxCPUsPerNode=16 QoS=gpu ExclusiveUser=NO OverSubscribe=NO OverTimeLimit=0 State=UP Nodes=gpunode[001-004]<br>
<br>
=====<br>
<br>
> On Nov 29, 2019, at 8:09 AM, Sistemas NLHPC <<a href="mailto:sistemas@nlhpc.cl" target="_blank">sistemas@nlhpc.cl</a>> wrote:<br>
> <br>
> External Email Warning<br>
> This email originated from outside the university. Please use caution when opening attachments, clicking links, or responding to requests.<br>
> Hi All,<br>
> <br>
> Thanks all for your posts <br>
> <br>
> Reading the documentation of Slurm and other sites like Niflheim <a href="https://wiki.fysik.dtu.dk/niflheim/Slurm_configuration#node-weight" target="_blank">
https://wiki.fysik.dtu.dk/niflheim/Slurm_configuration#node-weight</a> (Ole Holm Nielsen) the parameter "Weight" is to assign a value to the nodes, with this you can have priority in the nodes. But I have not obtained positive results.<br>
> <br>
> Thanks in advance<br>
> <br>
> Regards<br>
> <br>
> El sáb., 23 nov. 2019 a las 14:18, Chris Samuel (<<a href="mailto:chris@csamuel.org" target="_blank">chris@csamuel.org</a>>) escribió:<br>
> On 23/11/19 9:14 am, Chris Samuel wrote:<br>
> <br>
> > My gut instinct (and I've never tried this) is to make the 3GB nodes be <br>
> > in a separate partition that is guarded by AllowQos=3GB and have a QOS <br>
> > called "3GB" that uses MinTRESPerJob to require jobs to ask for more <br>
> > than 2GB of RAM to be allowed into the QOS.<br>
> <br>
> Of course there's nothing to stop a user requesting more memory than <br>
> they need to get access to these nodes, but that's a social issue not a <br>
> technical one. :-)<br>
> <br>
> -- <br>
>   Chris Samuel  :  <a href="http://www.csamuel.org/" target="_blank">http://www.csamuel.org/</a>  :  Berkeley, CA, USA<br>
> <u></u><u></u></p>
</blockquote>
</div>
</div>
</div>

</blockquote></div>