<div dir="ltr">Hello Everyone,<br><br>In 19.05 and previous versions, I was able to run
 multiple nodes on the same virtual machine or container. While 
upgrading to 20.02.0, when I run sbatch to kick off a job, it is stuck 
in the CF (Configuring) state.<br><br><span style="font-family:monospace">[root@slurmcluster log]# squeue<br>             JOBID PARTITION     NAME     USER ST       TIME  NODES NODELIST(REASON) <br></span><div><span style="font-family:monospace">                 6    normal     wrap     root CF      13:10      1 c1</span> <br></div><div><br></div><div>The slurmctld.log file shows the following error, and it just loops thereon after with the same error message:</div><div><br></div><div><span style="font-family:monospace">==> slurmctld.log <==<br>[2020-03-22T13:53:28.917] debug2: Tree head got back 1<br>[2020-03-22T13:53:28.921] debug2: node_did_resp slurmcluster<br>[2020-03-22T13:53:28.922] debug3: create_mmap_buf: loaded file `/var/spool/slurm/ctld/job_state` as Buf<br>[2020-03-22T13:53:28.922] debug3: Writing job id 6 to header record of job_state file<br>[2020-03-22T13:53:58.983] debug2: Testing job time limits and checkpoints<br>[2020-03-22T13:53:58.983] error: _find_node_record(766): lookup failure for slurmcluster<br>[2020-03-22T13:53:58.983] error: _find_node_record(778): lookup failure for slurmcluster alias slurmcluster<br>[2020-03-22T13:54:28.071] debug2: Testing job time limits and checkpoints<br>[2020-03-22T13:54:28.071] error: _find_node_record(766): lookup failure for slurmcluster<br>[2020-03-22T13:54:28.071] error: _find_node_record(778): lookup failure for slurmcluster alias slurmcluster<br>[2020-03-22T13:54:28.071] debug2: Performing purge of old job records<br>[2020-03-22T13:54:28.071] debug:  sched: Running job scheduler<br>[2020-03-22T13:54:58.119] debug2: Testing job time limits and checkpoints<br>[2020-03-22T13:54:58.119] error: _find_node_record(766): lookup failure for slurmcluster<br>[2020-03-22T13:54:58.119] error: _find_node_record(778): lookup failure for slurmcluster alias slurmcluster</span></div><div><br></div><div>I've
 tried manipulating the local /etc/hosts to make sure there wasn't a DNS
 problem of some kind, as the error message hints at.</div><div><br></div><div>Here is a link to my slurm.conf: <a href="https://github.com/giovtorres/docker-centos7-slurm/blob/master/files/slurm/slurm.conf" target="_blank">https://github.com/giovtorres/docker-centos7-slurm/blob/master/files/slurm/slurm.conf</a></div><div><br></div><div>I
 saw that FastSchedule=2 was called out in the Release Notes and was 
deprecated. I am using FastSchedule=1. Is this deprecated as well? Has 
this behaviour changed? Sadly, the behaviour of FastSchedule is not 
documented anywhere. I'm not even sure that is the crux of the problem 
here.<br></div><div><br></div><div>Any pointers would be greatly appreciated!</div><div><br></div><div>Thanks,</div><div>Giovanni</div></div>