<div dir="ltr">Hi, <div>Relatively new to Slurm.  I've been using Sun GridEngine mostly.</div><div>I have a cluster of 3 machines each with 8 cores.  In SGE i allocate the PE slots per machine, where if i submit 24 jobs it'll run all 24 jobs (b/c each job will use 1 core).</div><div>however, if i submit job in Slurm through sbatch i can only get it to run 3 jobs at a time, even when i define the cpus_per_task.  I was told to use openMPI for this.  <br>i'm not familiar w/ openMPI so i did an apt install of libopenmpi-dev. </div><div><br></div><div>Do i have to loop through my job submission w/ mpirun </div><div>and run an sbatch outside of it?</div><div>Again, i'm still new to this, and w/ sge it was pretty straight fwd where all i had to do was:</div><div> loop through files<br>    qsub -N {name of job}  script.sh {filename}.</div><div><br></div><div>not sure how would i do so here.</div></div>