<div dir="ltr">Hi David,<div><br></div><div>The command to be executed must be present on the node where the script is run.  When you submit a job in Slurm only the script is copied to the slave node, so the data and binaries must be there prior to the script execution. </div><div><br></div><div>The are many alternatives to deal with this situation depending on the system and software requirements. A common practice (as far as I know, I am not an experienced sysadmin) is to install the software in a shared storage and mount it both on the master node and in the slaves. This is analog to what you are probably doing with the user $HOME. </div><div><br></div><div>Of course this cannot always be done, and sometimes the only solution is install a particular library or application in every node. In this case there are many solutions to automatice the process. </div><div><br></div><div>Cheers, </div><div><br></div><div>Manuel</div></div><div class="gmail_extra"><br><div class="gmail_quote">2017-12-15 12:21 GMT+01:00 david <span dir="ltr"><<a href="mailto:vilanew@gmail.com" target="_blank">vilanew@gmail.com</a>></span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi,<br>
<br>
when running a sbatch script i get "command not found".<br>
<br>
<br>
The command is blast (quite used bioinformatics tool).<br>
<br>
<br>
The problem comes from the fact that the blast binary is installed in the master node  but not on the other nodes. When the job runs on another node the binary is not found.<br>
<br>
<br>
What would be way to deal with this situation ? what is common practice ?<br>
<br>
<br>
thanks,<br>
<br>
david<br>
<br>
<br>
<br>
</blockquote></div><br></div>