<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN" "http://www.w3.org/TR/REC-html40/loose.dtd">
<html><head><meta http-equiv="content-type" content="text/html; charset=UTF-8"></head><body style="font-family:Arial;font-size:14px"><p>
        Hello Geert,</p>
<div>
        <div>
                Thanks for your answer. I realised with your first question that only the ssh connection of the user that launched the job gets closed, and that it actually closes at the end of the job.<br><br>
                So it is the script /etc/slurm/slurm.epilog.clean that closes the connection. I will then stop its execution while we use the master as a computation note.<br><br>
                Thanks for guiding me into the right direction.<br><br>
                Best,<br><br>
                Alexandre</div>
</div>
<p>
        <br>
        Geert Geurts <<a href="mailto:Geert.Geurts@dalco.ch">Geert.Geurts@dalco.ch</a>> a écrit :</p>
<blockquote style="border-left:2px solid blue;margin-left:2px;padding-left:12px;" type="cite">
        Hi Alexandre,<br>
        It would be good to know a bit more information.<br>
        I wrote some questions that might be of interest, but you probably know better what info is relevant to your problem.<br><br>
        Which ssh connection gets dropped exactly?<br>
        What os/slurm version are you using?<br>
        How does your jobscript look like?<br>
        How does your slurm config look like?<br><br>
        Regards,<br>
        Geert<br><br><br><br>
        ________________________________<br>
        From: <a href="mailto:alexandre.vidmer@sichh.ch">alexandre.vidmer@sichh.ch</a><br>
        Sent: Friday, December 1, 2017 13:22<br>
        To: <a href="mailto:slurm-users@lists.schedmd.com">slurm-users@lists.schedmd.com</a><br>
        Subject: [slurm-users] SSH closed by remote host when job starts<br><br><br>
        Hi everyone,<br><br>
        I have currently a setup consisting only of one node, which will grow in the future. Everything works fine so far, except that everytime a job starts, the ssh session is closed automatically and I have to log in again.<br><br>
        Here are the different logs:<br><br>
        Console:<br><br>
        sbatch launch_job.sh<br>
        Submitted batch job 42<br>
        [<a href="mailto:user@computer">user@computer</a>]$ Connection to 192.168.1.1 closed by remote host.<br><br>
        /var/log/secure/<br>
        Dec  1 12:30:27 computer <span class="spellcheckIncorrect" index="98">systemd</span>-logind: Removed session 114.<br>
        Dec  1 12:30:27 computer systemd: Removed slice User Slice of user.<br>
        Dec  1 12:30:27 computer systemd: Stopping User Slice of user.<br>
        It does not seem to be an error, however the session is closed and I have not seen any parameter to prevent it.</blockquote>
<br><br></body></html>