<div dir="ltr">"-N 1" restricts a job to a single node.<div><br></div><div>We've continued to have issues with this. Historically we've had a single partition with multiple generations of nodes segregated for multinode scheduling via topology.conf. "Use -N 1" (unless you really know what you're doing) only goes so far.</div><div><br></div><div>There are a few other things that we may address in a submission plugin, and this will be added.</div><div><br></div><div>As previously mentioned, the other approach is to have a partition limited to single-node scheduling (as the default partition), and advise users who really know how to do multi-node process management (MPI or other) to use an overlapping partition.</div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, May 8, 2020 at 4:10 PM Michael Robbert <<a href="mailto:mrobbert@mines.edu">mrobbert@mines.edu</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div lang="EN-US"><div class="gmail-m_-6886168596112562960WordSection1"><p class="MsoNormal">Manuel,<u></u><u></u></p><p class="MsoNormal">You may want to instruct your users to use ‘-c’ or ‘—cpus-per-task’ to define the number of cpus that they need. Please correct me if I’m wrong, but I believe that will restrict the jobs to a singe node whereas ‘-n’ or ‘—ntasks’ is really for multi process jobs which can be spread amongst multiple nodes. <u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">Mike<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><div style="border-right:none;border-bottom:none;border-left:none;border-top:1pt solid rgb(181,196,223);padding:3pt 0in 0in"><p class="MsoNormal"><b><span style="font-size:12pt;color:black">From: </span></b><span style="font-size:12pt;color:black">slurm-users <<a href="mailto:slurm-users-bounces@lists.schedmd.com" target="_blank">slurm-users-bounces@lists.schedmd.com</a>> on behalf of "Holtgrewe, Manuel" <<a href="mailto:manuel.holtgrewe@bihealth.de" target="_blank">manuel.holtgrewe@bihealth.de</a>><br><b>Reply-To: </b>Slurm User Community List <<a href="mailto:slurm-users@lists.schedmd.com" target="_blank">slurm-users@lists.schedmd.com</a>><br><b>Date: </b>Friday, May 8, 2020 at 03:28<br><b>To: </b>"<a href="mailto:slurm-users@lists.schedmd.com" target="_blank">slurm-users@lists.schedmd.com</a>" <<a href="mailto:slurm-users@lists.schedmd.com" target="_blank">slurm-users@lists.schedmd.com</a>><br><b>Subject: </b>[External] [slurm-users] Defining a default --nodes=1<u></u><u></u></span></p></div><div><p class="MsoNormal"><u></u> <u></u></p></div><div style="border:1pt solid rgb(156,101,0);padding:2pt"><p class="MsoNormal" style="line-height:12pt;background:rgb(255,235,156)"><b><span style="font-size:10pt;color:rgb(156,101,0)">CAUTION:</span></b><span style="font-size:10pt;color:black"> This email originated from outside of the Colorado School of Mines organization. Do not click on links or open attachments unless you recognize the sender and know the content is safe.<u></u><u></u></span></p></div><p class="MsoNormal"><u></u> <u></u></p><div><div><div><p class="MsoNormal"><span style="font-size:10pt;font-family:Tahoma,sans-serif;color:black">Dear all,<u></u><u></u></span></p></div><div><p class="MsoNormal"><span style="font-size:10pt;font-family:Tahoma,sans-serif;color:black"><u></u> <u></u></span></p></div><div><p class="MsoNormal"><span style="font-size:10pt;font-family:Tahoma,sans-serif;color:black">we're running a cluster where the large majority of jobs will use multi-threading and no message passing. Sometimes CPU>1 jobs are scheduled to run on more than one node (which would be fine for MPI jobs of course...)<u></u><u></u></span></p></div><div><p class="MsoNormal"><span style="font-size:10pt;font-family:Tahoma,sans-serif;color:black"><u></u> <u></u></span></p></div><div><p class="MsoNormal"><span style="font-size:10pt;font-family:Tahoma,sans-serif;color:black">Is it possible to automatically set "--nodes=1" for all jobs outside of the "mpi" partition (that we setup for message passing jobs)?<u></u><u></u></span></p></div><div><p class="MsoNormal"><span style="font-size:10pt;font-family:Tahoma,sans-serif;color:black"><u></u> <u></u></span></p></div><div><p class="MsoNormal"><span style="font-size:10pt;font-family:Tahoma,sans-serif;color:black">Thank you,<u></u><u></u></span></p></div><div><p class="MsoNormal"><span style="font-size:10pt;font-family:Tahoma,sans-serif;color:black">Manuel<u></u><u></u></span></p></div><div><p class="MsoNormal"><span style="font-size:10pt;font-family:Tahoma,sans-serif;color:black"><u></u> <u></u></span></p><div><div><div><div><div><div><div><div><div><div><div><div><div><p class="MsoNormal"><span style="font-size:10pt;font-family:Tahoma,sans-serif;color:black">-- <br>Dr. Manuel Holtgrewe, Dipl.-Inform.<br>Bioinformatician<br>Core Unit Bioinformatics – CUBI<br>Berlin Institute of Health / Max Delbrück Center for Molecular Medicine in the Helmholtz Association / Charité – Universitätsmedizin Berlin<br><br>Visiting Address: Invalidenstr. 80, 3rd Floor, Room 03 028, 10117 Berlin<br>Postal Address: Chariteplatz 1, 10117 Berlin<br><br>E-Mail: <a href="mailto:manuel.holtgrewe@bihealth.de" target="_blank">manuel.holtgrewe@bihealth.de</a><br>Phone: +49 30 450 543 607<br>Fax: +49 30 450 7 543 901<br>Web: <a href="http://cubi.bihealth.org" target="_blank">cubi.bihealth.org</a>  <a href="http://www.bihealth.org" target="_blank">www.bihealth.org</a>  <a href="http://www.mdc-berlin.de" target="_blank">www.mdc-berlin.de</a>  <a href="http://www.charite.de" target="_blank">www.charite.de</a> <u></u><u></u></span></p></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div>
</blockquote></div>