<div dir="ltr"><div>Hello there.</div><div><br></div><div>I've just set up a small Slurm cluster for our on-premise computation needs (nothing too exotic, just a bunch of R scripts).</div><div><br></div><div>The systems "works" if the sense that users are able to submit jobs, but I have an issue with resources management: a single user can consume all resources of the cluster.</div><div><br></div><div>I will attach data of my live system so you can watch the config files and my troubleshooting attempts, but I present here a simplified practical example:</div><div><br></div><div>Suppose I have 2x nodes with 10G of RAM each. User1 submits 4 jobs, each one requiring 5G. He fills the cluster. </div><div>Them comes User2 and submit another Job, which gets queued until one of User1's Job completes (which may require days). This is not good. </div><div>I've tried to limit the number of running job using Qos -> MaxJobsPerAccount, but this wouldn't stop a user to just fill up the cluster with fewer (but bigger) jobs.</div><div><br></div><div>How can I avoid that? </div><div><br></div><div>Here is a link to my config files: <a href="https://pastebin.com/iwAnBMpY">https://pastebin.com/iwAnBMpY</a></div><div><br></div><div>Thanks a lot.</div><div>Matteo</div><div><br></div></div>