<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body dir="auto">
For the first question: you should be able to define each node’s core count, hyperthreading, or other details in slurm.conf. That would allow Slurm to schedule (well-behaved) tasks to each node without anything getting overloaded.
<div><br>
</div>
<div>For the second question about jobs that aren’t well-behaved (a job requesting 1 CPU, but starting multiple parallel threads, or multiple MPI processes), you’ll also want to set up cgroups to constrain each job’s processes to its share of the node (so a
 1-core job starting N threads will end up with each thread getting a 1/N share of a CPU).</div>
<div>
<div dir="ltr"><br>
<blockquote type="cite">On Jan 28, 2020, at 6:12 AM, zz <anand633r@gmail.com> wrote:<br>
<br>
</blockquote>
</div>
<blockquote type="cite">
<div dir="ltr"><span style="text-align: center; background-color: white;">Hi,</span>
<div>
<div dir="ltr">
<div><br>
</div>
<div>I am testing slurm for a small cluster, I just want to know that is there anyway I could set a max job limit per node, I have nodes with different specs running under same qos. Please ignore if it is a stupid question.</div>
<div><br>
</div>
<div>Also I would like to know what will happen when a process which is running on a dual core system which requires say 4 cores at  some step.
<div class="gmail-adL"><br>
</div>
<div class="gmail-adL">Thanks<br>
</div>
</div>
</div>
</div>
</div>
</blockquote>
</div>
</body>
</html>