<div dir="ltr"><div>Thanks for the feedback.</div><div><br></div><div>I've done the database dryrun on a clone of our database / slurmdbd and that is all good.</div><div><br></div><div>We have a reboot program defined.</div><div><br></div><div>The one thing I'm unsure about is as much as Linux / NFS issue than a a slurm one.  When I change the soft link for "default" to point to the new 20.11 slurm install but all the compute nodes are still run the old 19.05 version because they havent been restarted yet, will that not cause any problems?   Or will they still just see the same old 19.05 version of slurm that they are running until they are restarted.<br></div><div><br></div><div>thanks<br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, May 30, 2022 at 8:18 AM Ole Holm Nielsen <<a href="mailto:Ole.H.Nielsen@fysik.dtu.dk">Ole.H.Nielsen@fysik.dtu.dk</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Hi Byron,<br>
<br>
Adding to Stephan's note, it's strongly recommended to make a database <br>
dry-run upgrade test before upgrading the production slurmdbd.  Many <br>
details are in<br>
<a href="https://wiki.fysik.dtu.dk/niflheim/Slurm_installation#upgrading-slurm" rel="noreferrer" target="_blank">https://wiki.fysik.dtu.dk/niflheim/Slurm_installation#upgrading-slurm</a><br>
<br>
If you have separate slurmdbd and slurmctld machines (recommended), the <br>
next step is to upgrade the slurmctld.<br>
<br>
Finally you can upgrade the slurmd's while the cluster is running in <br>
production mode.  Since you have Slurm om NFS, following Chris' <br>
recommendation of rebooting the nodes may be the safest approach.<br>
<br>
After upgrading everything to 20.11, you should next upgrade to 21.08. <br>
Upgrade to the latest 22.05 should probably wait for a few minor releases.<br>
<br>
/Ole<br>
<br>
On 5/30/22 08:54, Stephan Roth wrote:<br>
> If you have the means to set up a test environment to try the upgrade <br>
> first, I recommend to do it.<br>
> <br>
> The upgrade from 19.05 to 20.11 worked for two clusters I maintain with a <br>
> similar NFS based setup, except we keep the Slurm configuration separated <br>
> from the Slurm software accessible through NFS.<br>
> <br>
> For updates staying between 2 major releases this should work well by <br>
> restarting the Slurm daemons in the recommended order (see <br>
> <a href="https://slurm.schedmd.com/SLUG19/Field_Notes_3.pdf" rel="noreferrer" target="_blank">https://slurm.schedmd.com/SLUG19/Field_Notes_3.pdf</a>) after switching the <br>
> soft link to 20.11:<br>
> <br>
> 1. slurmdbd<br>
> 2. slurmctld<br>
> 3. individual slurmd on your nodes<br>
> <br>
> To be able to revert back to 19.05 you should dump the database between <br>
> stopping and starting slurmdbd as well as backing up StateSaveLocation <br>
> between stopping/restarting slurmctld.<br>
> <br>
> slurmstepd's of running jobs will continue to run on 19.05 after <br>
> restarting the slurmd's.<br>
> <br>
> Check individual slurmd.log files for problems.<br>
> <br>
> Cheers,<br>
> Stephan<br>
> <br>
> On 30.05.22 00:09, byron wrote:<br>
>> Hi<br>
>><br>
>> I'm currently doing an upgrade from 19.05 to 20.11.<br>
>><br>
>> All of our compute nodes have the same install of slurm NFS mounted. The <br>
>> system has been setup so that all the start scripts and configuration <br>
>> files point to the default installation which is a soft link to the most <br>
>> recent installation of slurm.<br>
>><br>
>>   This is the first time I've done an upgrade of slurm and I had been <br>
>> hoping to do a rolling upgrade as opposed to waiting for all the jobs to <br>
>> finish on all the compute nodes and then switching across but I dont see <br>
>> how I can do it with this setup.  Does any one have any expereience of <br>
>> this?<br>
<br>
</blockquote></div>