<p dir="ltr">What about if you increase swap memory? Virtual memory would increase as well, and maybe the app would run. Of course if it works, the performance could be very very poor. </p>
<br><div class="gmail_quote"><div dir="ltr">El mié., 7 feb. 2018 16:53, david vilanova <<a href="mailto:vilanew@gmail.com">vilanew@gmail.com</a>> escribió:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div dir="auto">Thanks all for your comments, i will look into that</div></div><div><br><div class="gmail_quote"><div>El El mié, 7 feb 2018 a las 16:37, Loris Bennett <<a href="mailto:loris.bennett@fu-berlin.de" target="_blank">loris.bennett@fu-berlin.de</a>> escribió:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
I was make the unwarranted assumption that you have multiple processes.<br>
So if you have a single process which needs more than 2GB, Ralph is of<br>
course right and there is nothing you can do.<br>
<br>
However, you are using R, so, depending on your problem, you may be able<br>
to make use of a package like Rmpi to allow your job to run on multiple<br>
nodes.<br>
<br>
Cheers,<br>
<br>
Loris<br>
<br>
"<a href="mailto:rhc@open-mpi.org" target="_blank">rhc@open-mpi.org</a>" <<a href="mailto:rhc@open-mpi.org" target="_blank">rhc@open-mpi.org</a>> writes:<br>
<br>
> Afraid not - since you don’t have any nodes that meet the 3G requirement, you’ll just hang.<br>
><br>
>> On Feb 7, 2018, at 7:01 AM, david vilanova <<a href="mailto:vilanew@gmail.com" target="_blank">vilanew@gmail.com</a>> wrote:<br>
>><br>
>> Thanks for the quick response.<br>
>><br>
>> Should the following script do the trick ?? meaning use all required nodes to have at least 3G total memory ? even though my nodes were setup with 2G each ??<br>
>><br>
>> #SBATCH array 1-10%10:1<br>
>><br>
>> #SBATCH mem-per-cpu=3000m<br>
>><br>
>> srun R CMD BATCH myscript.R<br>
>><br>
>><br>
>><br>
>> thanks<br>
>><br>
>><br>
>><br>
>><br>
>> On 07/02/2018 15:50, Loris Bennett wrote:<br>
>>> Hi David,<br>
>>><br>
>>> david martin <<a href="mailto:vilanew@gmail.com" target="_blank">vilanew@gmail.com</a>> writes:<br>
>>><br>
>>>> <br>
>>>><br>
>>>> Hi,<br>
>>>><br>
>>>> I would like to submit a job that requires 3Go. The problem is that I have 70 nodes available each node with 2Gb memory.<br>
>>>><br>
>>>> So the command sbatch --mem=3G will wait for ressources to become available.<br>
>>>><br>
>>>> Can I run sbatch and tell the cluster to use the 3Go out of the 70Go<br>
>>>> available or is that a particular setup ? meaning is the memory<br>
>>>> restricted to each node ? or should i allocate two nodes so that i<br>
>>>> have 2x4Go availble ?<br>
>>> Check<br>
>>><br>
>>>   man sbatch<br>
>>><br>
>>> You'll find that --mem means memory per node.  Thus, if you specify 3GB<br>
>>> but all the nodes have 2GB, your job will wait forever (or until you buy<br>
>>> more RAM and reconfigure Slurm).<br>
>>><br>
>>> You probably want --mem-per-cpu, which is actually more like memory per<br>
>>> task.  This is obviously only going to work if your job can actually run<br>
>>> on more than one node, e.g. is MPI enabled.<br>
>>><br>
>>> Cheers,<br>
>>><br>
>>> Loris<br>
>>><br>
>><br>
>><br>
--<br>
Dr. Loris Bennett (Mr.)<br>
ZEDAT, Freie Universität Berlin         Email <a href="mailto:loris.bennett@fu-berlin.de" target="_blank">loris.bennett@fu-berlin.de</a><br>
<br>
</blockquote></div></div></blockquote></div>