<div dir="auto">Hi,<div dir="auto"><br></div><div dir="auto">I've just finished  setup of a single node "cluster" with slurm on ubuntu 20.04. Infrastructural limitations  prevent me from running it 24/7, and it's only powered on during business hours.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">Currently, I have a cron job running that hibernates that sole node before closing time.</div><div dir="auto"><br></div><div dir="auto">The hibernation is done with standard systemd, and hibernates to the swap partition.</div><div dir="auto"><br></div><div dir="auto"> I have not run any lengthy slurm jobs on it yet. Before I do, can I get some thoughts on a couple of things?</div><div dir="auto"><br></div><div dir="auto">If it hibernated when slurm still had jobs running/queued, would they resume properly when the machine powers back on? </div><div dir="auto"><br></div><div dir="auto">Note that my swap space is bigger than my  RAM. </div><div dir="auto"><br></div><div dir="auto">Is it necessary to perhaps setup a pre-hibernate script for systemd to  iterate scontrol to suspend all the jobs before hibernating and resume them post-resume? </div><div dir="auto"><br></div><div dir="auto">What about the wall times? I'm uessing that slurm will count the downtime as elapsed for each job. Is there a way to config this, or is the only alternative a post-hibernate script that iteratively updates the wall times of the running jobs using scontrol again? </div><div dir="auto"><br></div><div dir="auto">Thanks for your attention. </div><div dir="auto">Regards </div><div dir="auto">AR</div></div>