<div><div dir="auto">Thanks all for your comments, i will look into that</div><br><div class="gmail_quote"><div>El El mié, 7 feb 2018 a las 16:37, Loris Bennett <<a href="mailto:loris.bennett@fu-berlin.de">loris.bennett@fu-berlin.de</a>> escribió:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
I was make the unwarranted assumption that you have multiple processes.<br>
So if you have a single process which needs more than 2GB, Ralph is of<br>
course right and there is nothing you can do.<br>
<br>
However, you are using R, so, depending on your problem, you may be able<br>
to make use of a package like Rmpi to allow your job to run on multiple<br>
nodes.<br>
<br>
Cheers,<br>
<br>
Loris<br>
<br>
"<a href="mailto:rhc@open-mpi.org" target="_blank">rhc@open-mpi.org</a>" <<a href="mailto:rhc@open-mpi.org" target="_blank">rhc@open-mpi.org</a>> writes:<br>
<br>
> Afraid not - since you don’t have any nodes that meet the 3G requirement, you’ll just hang.<br>
><br>
>> On Feb 7, 2018, at 7:01 AM, david vilanova <<a href="mailto:vilanew@gmail.com" target="_blank">vilanew@gmail.com</a>> wrote:<br>
>><br>
>> Thanks for the quick response.<br>
>><br>
>> Should the following script do the trick ?? meaning use all required nodes to have at least 3G total memory ? even though my nodes were setup with 2G each ??<br>
>><br>
>> #SBATCH array 1-10%10:1<br>
>><br>
>> #SBATCH mem-per-cpu=3000m<br>
>><br>
>> srun R CMD BATCH myscript.R<br>
>><br>
>><br>
>><br>
>> thanks<br>
>><br>
>><br>
>><br>
>><br>
>> On 07/02/2018 15:50, Loris Bennett wrote:<br>
>>> Hi David,<br>
>>><br>
>>> david martin <<a href="mailto:vilanew@gmail.com" target="_blank">vilanew@gmail.com</a>> writes:<br>
>>><br>
>>>> <br>
>>>><br>
>>>> Hi,<br>
>>>><br>
>>>> I would like to submit a job that requires 3Go. The problem is that I have 70 nodes available each node with 2Gb memory.<br>
>>>><br>
>>>> So the command sbatch --mem=3G will wait for ressources to become available.<br>
>>>><br>
>>>> Can I run sbatch and tell the cluster to use the 3Go out of the 70Go<br>
>>>> available or is that a particular setup ? meaning is the memory<br>
>>>> restricted to each node ? or should i allocate two nodes so that i<br>
>>>> have 2x4Go availble ?<br>
>>> Check<br>
>>><br>
>>>   man sbatch<br>
>>><br>
>>> You'll find that --mem means memory per node.  Thus, if you specify 3GB<br>
>>> but all the nodes have 2GB, your job will wait forever (or until you buy<br>
>>> more RAM and reconfigure Slurm).<br>
>>><br>
>>> You probably want --mem-per-cpu, which is actually more like memory per<br>
>>> task.  This is obviously only going to work if your job can actually run<br>
>>> on more than one node, e.g. is MPI enabled.<br>
>>><br>
>>> Cheers,<br>
>>><br>
>>> Loris<br>
>>><br>
>><br>
>><br>
--<br>
Dr. Loris Bennett (Mr.)<br>
ZEDAT, Freie Universität Berlin         Email <a href="mailto:loris.bennett@fu-berlin.de" target="_blank">loris.bennett@fu-berlin.de</a><br>
<br>
</blockquote></div></div>