<html><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;" class="">Your nodes are hyperthreaded (ThreadsPerCore=2).  Slurm always allocates _all threads_ associated with a selected core to jobs.  So you're being assigned both threads on core N.<div class=""><br class=""></div><div class=""><br class=""></div><div class="">On our development-partition nodes we configure the threads as cores, e.g.<br class=""><div class=""><br class=""></div><div class=""><br class=""></div></div><blockquote style="margin: 0 0 0 40px; border: none; padding: 0px;" class=""><div class=""><div class=""><div class="">NodeName=moria CPUs=16 Boards=1 SocketsPerBoard=2 CoresPerSocket=8 ThreadsPerCore=1</div></div></div></blockquote><div class=""><div class=""><br class=""></div><div class=""><br class=""></div><div class="">to force Slurm to schedule the threads separately.</div><div class=""><br class=""></div><div class=""><br class=""></div><div class=""><br class=""><blockquote type="cite" class="">On Feb 7, 2019, at 12:10 PM, Xiang Gao <<a href="mailto:qasdfgtyuiop@gmail.com" class="">qasdfgtyuiop@gmail.com</a>> wrote:<br class=""><br class="">Hi All,<br class=""><br class="">We configured slurm on a server with 8 GPU and 16 CPUs and want to use slurm to scheduler for both CPU and GPU jobs. We observed an unexpected behavior that, although there are 16 CPUs, slurm only schedule 8 jobs to run even if there are jobs not asking any GPU. If I inspect detailed information using `scontrol show job`, I see some strange thing on some job that just ask for 1 CPU:<br class=""><br class="">NumNodes=1 NumCPUs=2 NumTasks=1 CPUs/Task=1<br class=""><br class="">If I understand these concepts correctly, as the number of nodes is 1, number of tasks is 1, and number of cpus/task is 1, in principle there is no way that the final number of CPUs is 2. I'm not sure if I misunderstand the concepts, configure slurm wrongly, or this is a bug. So I come for help.<br class=""><br class="">Some related config are:<br class=""><br class=""># COMPUTE NODES  <br class="">NodeName=moria CPUs=16 Boards=1 SocketsPerBoard=2 CoresPerSocket=4 ThreadsPerCore=2 RealMemory=120000 Gres=gpu:gtx1080ti:2,gpu:titanv:3,gpu:v100:1,gpu:gp100:2<br class="">State=UNKNOWN  <br class="">PartitionName=queue Nodes=moria Default=YES MaxTime=INFINITE State=UP<br class=""><br class=""># SCHEDULING  <br class="">FastSchedule=1 <br class="">SchedulerType=sched/backfill <br class="">GresTypes=gpu <br class="">SelectType=select/cons_res <br class="">SelectTypeParameters=CR_Core<br class=""><br class="">Best,<br class="">Xiang Gao<br class=""></blockquote><br class=""><div class=""><br class="">::::::::::::::::::::::::::::::::::::::::::::::::::::::<br class="">Jeffrey T. Frey, Ph.D.<br class="">Systems Programmer V / HPC Management<br class="">Network & Systems Services / College of Engineering<br class="">University of Delaware, Newark DE  19716<br class="">Office: (302) 831-6034  Mobile: (302) 419-4976<br class="">::::::::::::::::::::::::::::::::::::::::::::::::::::::<br class=""><br class=""><br class=""><br class=""></div><br class=""></div></div></body></html>