<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Nov 3, 2019 at 7:18 AM Juergen Salk <<a href="mailto:juergen.salk@uni-ulm.de">juergen.salk@uni-ulm.de</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><br>
Hi,<br>
<br>
maybe I missed it, but what does squeue say in the reason field for <br>
your pending jobs that you expect to slip in?<br>
<br></blockquote><div><br></div><div>the reason on these jobs is just "Priority".</div><div><br></div><div><br></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
Is your partition maybe configured for exclusive node access, e.g. by<br>
setting `OverSubscribe=EXCLUSIVE´?<br>
<br></blockquote><div><br></div><div>We don't have that setting on and i believe we are not configured for exclusive node access otherwise.  When my small jobs that each require one core are running, we get as many jobs as we have cores running simultaneously on each machine.</div><div><br></div><div>thanks</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
Best regards<br>
Jürgen<br>
<br>
-- <br>
Jürgen Salk<br>
Scientific Software & Compute Services (SSCS)<br>
Kommunikations- und Informationszentrum (kiz)<br>
Universität Ulm<br>
Telefon: +49 (0)731 50-22478<br>
Telefax: +49 (0)731 50-22471<br>
<br>
<br>
* c b <<a href="mailto:breedthoughts.www@gmail.com" target="_blank">breedthoughts.www@gmail.com</a>> [191101 14:44]:<br>
> I see - yes, to clarify, we are specifying memory for each of these jobs,<br>
> and there is enough memory on the nodes for both types of jobs to be<br>
> running simultaneously.<br>
> <br>
> On Fri, Nov 1, 2019 at 1:59 PM Brian Andrus <<a href="mailto:toomuchit@gmail.com" target="_blank">toomuchit@gmail.com</a>> wrote:<br>
> <br>
> > I ask if you are specifying it, because if not, slurm will assume a job<br>
> > will use all the memory available.<br>
> ><br>
> > So without specifying, your big job gets allocated 100% of the memory so<br>
> > nothing could be sent to the node. Same if you don't specify for the little<br>
> > jobs. It would want 100%, but if anything is running there, 100% is not<br>
> > available as far as slurm is concerned.<br>
> ><br>
> > Brian<br>
> > On 11/1/2019 10:52 AM, c b wrote:<br>
> ><br>
> > yes, there is enough memory for each of these jobs, and there is enough<br>
> > memory to run the high resource and low resource jobs at the same time.<br>
> ><br>
> > On Fri, Nov 1, 2019 at 1:37 PM Brian Andrus <<a href="mailto:toomuchit@gmail.com" target="_blank">toomuchit@gmail.com</a>> wrote:<br>
> ><br>
> >> Are you specifying memory for each of the jobs?<br>
> >><br>
> >> Can't run a small job if there isn't enough memory available for it.<br>
> >><br>
> >> Brian Andrus<br>
> >> On 11/1/2019 7:42 AM, c b wrote:<br>
> >><br>
> >> I have:<br>
> >> SelectType=select/cons_res<br>
> >> SelectTypeParameters=CR_CPU_Memory<br>
> >><br>
> >> On Fri, Nov 1, 2019 at 10:39 AM Mark Hahn <<a href="mailto:hahn@mcmaster.ca" target="_blank">hahn@mcmaster.ca</a>> wrote:<br>
> >><br>
> >>> > In theory, these small jobs could slip in and run alongside the large<br>
> >>> jobs,<br>
> >>><br>
> >>> what are your SelectType and SelectTypeParameters settings?<br>
> >>> ExclusiveUser=YES on partitions?<br>
> >>><br>
> >>> regards, mark hahn.<br>
> >>><br>
> >>><br>
<br>
<br>
</blockquote></div></div>