<div dir="ltr">Thanks,<div>However, i'm on ubuntu, so when i installed w/ apt install slurm-llnl and slurm-llnl-basic-plugins{-dev}</div><div><br></div><div>i added the con_res entry.  however, the controller can't find the select/con_res plugin.  Is there something else i need to install to get the plugin to be recognized?  </div></div><br><div class="gmail_quote"><div dir="ltr">On Wed, Jun 20, 2018 at 2:49 AM Thomas HAMEL <<a href="mailto:hmlth@t-hamel.fr">hmlth@t-hamel.fr</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hello,<br>
<br>
Slurm can have a behavior similar to the one you were used on SGE, it's <br>
not the default but it's really commonly used. This is called Consumable <br>
Resources in Slurm, you don't allocate full nodes but resources on the <br>
node like cores or memory. It's activated in slurm.conf (after <br>
restarting or reconfiguring the controller) :<br>
<br>
SelectType=select/cons_res<br>
SelectTypeParameters=CR_Core_Memory<br>
<br>
<a href="https://slurm.schedmd.com/cons_res.html" rel="noreferrer" target="_blank">https://slurm.schedmd.com/cons_res.html</a><br>
<br>
MPI serves another purpose that do not really fit you model. The <br>
solution to your issue is Consumable Resources but you can take a look <br>
at Job Arrays to group all jobs of your loop together.<br>
<br>
Regards,<br>
<br>
Thomas HAMEL<br>
<br>
<br>
On 19/06/2018 23:33, Anson Abraham wrote:<br>
> Hi,<br>
> Relatively new to Slurm.  I've been using Sun GridEngine mostly.<br>
> I have a cluster of 3 machines each with 8 cores.  In SGE i allocate <br>
> the PE slots per machine, where if i submit 24 jobs it'll run all 24 <br>
> jobs (b/c each job will use 1 core).<br>
> however, if i submit job in Slurm through sbatch i can only get it to <br>
> run 3 jobs at a time, even when i define the cpus_per_task.  I was <br>
> told to use openMPI for this.<br>
> i'm not familiar w/ openMPI so i did an apt install of libopenmpi-dev.<br>
><br>
> Do i have to loop through my job submission w/ mpirun<br>
> and run an sbatch outside of it?<br>
> Again, i'm still new to this, and w/ sge it was pretty straight fwd <br>
> where all i had to do was:<br>
>  loop through files<br>
>     qsub -N {name of job}  script.sh {filename}.<br>
><br>
> not sure how would i do so here.<br>
<br>
</blockquote></div>