<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body dir="auto">
Primary one I’m aware of is that resource use is better reported (or at all in some cases) via srun, and srun can take care of MPI for an MPI job.  I’m sure there are others as well (I guess avoiding another place where you have to describe the resources to
 be used and making sure they match, in the case of mpirun, etc.). <br>
<br>
<div dir="ltr"><span style="background-color: rgba(255, 255, 255, 0);">--<br>
____<br>
|| \\UTGERS,       |---------------------------*O*---------------------------<br>
||_// the State     |         Ryan Novosielski - <a href="mailto:novosirj@rutgers.edu" dir="ltr" x-apple-data-detectors="true" x-apple-data-detectors-type="link" x-apple-data-detectors-result="1">novosirj@rutgers.edu</a><br>
|| \\ University | Sr. Technologist - 973/972.0922 (2x0922) ~*~ RBHS Campus<br>
||  \\    of NJ     | Office of Advanced Research Computing - MSB C630, Newark<br>
    `'</span></div>
<div dir="ltr"><br>
<blockquote type="cite">On Sep 30, 2020, at 09:38, Luecht, Jeff A <jeff.luecht@pnc.com> wrote:<br>
<br>
</blockquote>
</div>
<blockquote type="cite">
<div dir="ltr"><span>First off, I want to thank everyone for their input and suggestions.  They were very helpful an ultimately pointed me in the right direction.  I spent several hours playing around with various settings.  </span><br>
<span></span><br>
<span>Some additional background. When the srun command is used to execute this job,  we do not see this issue.  We only see it in SBATCH.</span><br>
<span></span><br>
<span>What I ultimate did was the following:</span><br>
<span></span><br>
<span>1 - Change the NodeName to add the specific parameters Sockets, Cores and Threads.</span><br>
<span>2 - Changed the DefMemPerCPU/MaxMemCPU to 16144/12228 instead of 6000/12000 respectively</span><br>
<span></span><br>
<span>I tested jobs after the above changes and used 'scontrol --defaults job <ID>' command.  The CPU allocation now works as expected.  </span><br>
<span></span><br>
<span>I do have one question though - what is the benefit/recommendation of using srun to execute a process within SBATCH.  We are running primarily python jobs, but need to also support R jobs.</span><br>
<span></span><br>
<span>-----Original Message-----</span><br>
<span>From: slurm-users [mailto:slurm-users-bounces@lists.schedmd.com] On Behalf Of Diego Zuccato</span><br>
<span>Sent: Wednesday, September 30, 2020 2:18 AM</span><br>
<span>To: Slurm User Community List <slurm-users@lists.schedmd.com>; Michael Di Domenico <mdidomenico4@gmail.com></span><br>
<span>Subject: EXTERNAL: Re: [slurm-users] Memory per CPU</span><br>
<span></span><br>
<span>** This email has been received from outside the organization – Think before clicking on links, opening attachments, or responding. **</span><br>
<span></span><br>
<span>Il 29/09/20 16:19, Michael Di Domenico ha scritto:</span><br>
<span></span><br>
<blockquote type="cite"><span>what leads you to believe that you're getting 2 CPU's instead of 1?</span><br>
</blockquote>
<span>I think I saw that too, once, but thought it was related to hyperthreading.</span><br>
<span></span><br>
<span>--</span><br>
<span>Diego Zuccato</span><br>
<span>DIFA - Dip. di Fisica e Astronomia</span><br>
<span>Servizi Informatici</span><br>
<span>Alma Mater Studiorum - Università di Bologna V.le Berti-Pichat 6/2 - 40127 Bologna - Italy</span><br>
<span>tel.: +39 051 20 95786</span><br>
<span></span><br>
<span></span><br>
<span></span><br>
<span></span><br>
<span>The contents of this email are the property of PNC. If it was not addressed to you, you have no legal right to read it. If you think you received it in error, please notify the sender. Do not forward or copy without permission of the sender. This message
 may be considered a commercial electronic message under Canadian law or this message may contain an advertisement of a product or service and thus may constitute a commercial electronic mail message under US law. You may unsubscribe at any time from receiving
 commercial electronic messages from PNC at http://pages.e.pnc.com/globalunsub/</span><br>
<span>PNC, 249 Fifth Avenue, Pittsburgh, PA 15222; pnc.com</span><br>
<span></span><br>
<span></span><br>
</div>
</blockquote>
</body>
</html>