<div dir="ltr">Hello All,<div><br></div><div>I saw this post from 2014 and I was wondering if anyone had a good solution. Post:</div><div><br></div><div><a href="https://groups.google.com/forum/#!searchin/slurm-users/split$20cores$20partition%7Csort:date/slurm-users/R43s9MBPtZ8/fGkIvSVMdHUJ">https://groups.google.com/forum/#!searchin/slurm-users/split$20cores$20partition%7Csort:date/slurm-users/R43s9MBPtZ8/fGkIvSVMdHUJ</a><br clear="all"><div><br></div><div>My situation is similar. I have a GPU cluster with gres.conf entries which look like:</div><div><br></div><div>NodeName=gpu-XX Name=gpu File=/dev/nvidia[0-1] CPUs=[0-5]<br></div><div><div>NodeName=gpu-XX Name=gpu File=/dev/nvidia[2-3] CPUs=[6-11]</div></div><div><br></div><div>However, as you can imagine 8 cores sit idle on these machines for no reason. Is there a way to easily set this up? The post mentioned using QOS, but for example if slurm fills up CPUs 0-7 and uses 8-11 for the GPU that would be disastrous. I could use block distribution by default, but I don't think I will ever be able to keep N cores on the socket idle if N GPUs are idle. It might be worth noting that I am trying to avoid preemption of these resources. However, it might be the only way (e.g. GPU jobs preempt CPU only ones).</div><div><br></div><div>Thanks,</div><div><br></div><div>Barry</div><div><br></div>-- <br><div class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><font face="courier new, monospace">Barry E Moore II, PhD<br>E-mail: <a href="mailto:bmooreii@pitt.edu" target="_blank">bmooreii@pitt.edu</a><br><br>Assistant Research Professor<br>Center for Research Computing<br>University of Pittsburgh<br>Pittsburgh, PA 15260</font><b><br></b></div></div></div></div></div></div></div></div>
</div></div>