<div dir="ltr"><div>cgroups can control access to devices (e.g. /dev/nvidia0), which is how I understand it to work. <br></div><div><br></div><div>-Sean<br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Mar 24, 2022 at 4:27 AM <<a href="mailto:taleintervenor@sjtu.edu.cn">taleintervenor@sjtu.edu.cn</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div lang="ZH-CN"><div class="gmail-m_-3136154783669953460WordSection1"><p class="MsoNormal"><span style="font-size:10.5pt;font-family:等线" lang="EN-US">Well, this is indeed the point. We didn’t set <b>ConstrainDevices=yes </b>in cgroup.conf. After adding this, gpu restriction works as expected.<u></u><u></u></span></p><p class="MsoNormal"><span style="font-size:10.5pt;font-family:等线" lang="EN-US">But what is the relation between gpu restriction and cgroup? I never heard that cgroup can limit gpu card usage. Isn’t it a feature of cuda or nvidia driver? <u></u><u></u></span></p><p class="MsoNormal"><span style="font-size:10.5pt;font-family:等线" lang="EN-US"><u></u> <u></u></span></p><p class="MsoNormal"><b><span style="font-size:11pt;font-family:等线">发件人<span lang="EN-US">:</span></span></b><span style="font-size:11pt;font-family:等线" lang="EN-US"> Sean Maxwell <<a href="mailto:stm@case.edu" target="_blank">stm@case.edu</a>> <br></span><b><span style="font-size:11pt;font-family:等线">发送时间<span lang="EN-US">:</span></span></b><span style="font-size:11pt;font-family:等线" lang="EN-US"> 2022</span><span style="font-size:11pt;font-family:等线">年<span lang="EN-US">3</span>月<span lang="EN-US">23</span>日<span lang="EN-US"> 23:05<br></span><b>收件人<span lang="EN-US">:</span></b><span lang="EN-US"> Slurm User Community List <<a href="mailto:slurm-users@lists.schedmd.com" target="_blank">slurm-users@lists.schedmd.com</a>><br></span><b>主题<span lang="EN-US">:</span></b><span lang="EN-US"> Re: [slurm-users] how to locate the problem when slurm failed to restrict gpu usage of user jobs<u></u><u></u></span></span></p><p class="MsoNormal"><span lang="EN-US"><u></u> <u></u></span></p><div><div><p class="MsoNormal"><span lang="EN-US">Hi,<u></u><u></u></span></p></div><div><p class="MsoNormal"><span lang="EN-US"><u></u> <u></u></span></p></div><div><p class="MsoNormal"><span lang="EN-US">If you are using cgroups for task/process management, you should verify that your /etc/slurm/cgroup.conf has the following line:<u></u><u></u></span></p></div><div><p class="MsoNormal"><span lang="EN-US"><u></u> <u></u></span></p></div><div><p class="MsoNormal"><span lang="EN-US">ConstrainDevices=yes<u></u><u></u></span></p></div><div><p class="MsoNormal"><span lang="EN-US"><u></u> <u></u></span></p></div><div><p class="MsoNormal"><span lang="EN-US">I'm not sure about the missing environment variable, but the absence of the above in cgroup.conf is one way the GPU devices can be unconstrained in the jobs.<u></u><u></u></span></p></div><div><p class="MsoNormal"><span lang="EN-US"><u></u> <u></u></span></p></div><div><p class="MsoNormal"><span lang="EN-US">-Sean<u></u><u></u></span></p></div><div><p class="MsoNormal"><span lang="EN-US"><u></u> <u></u></span></p></div><div><p class="MsoNormal"><span lang="EN-US"><u></u> <u></u></span></p></div></div><p class="MsoNormal"><span lang="EN-US"><u></u> <u></u></span></p><div><div><p class="MsoNormal"><span lang="EN-US">On Wed, Mar 23, 2022 at 10:46 AM <<a href="mailto:taleintervenor@sjtu.edu.cn" target="_blank">taleintervenor@sjtu.edu.cn</a>> wrote:<u></u><u></u></span></p></div><blockquote style="border-color:currentcolor currentcolor currentcolor rgb(204,204,204);border-style:none none none solid;border-width:medium medium medium 1pt;padding:0cm 0cm 0cm 6pt;margin-left:4.8pt;margin-right:0cm"><div><div><p class="MsoNormal"><span lang="EN-US">Hi, all:<u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US"> <u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US">We found a problem that slurm job with argument such as <b>--gres gpu:1 </b>didn</span>’<span lang="EN-US">t be restricted with gpu usage, user still can see all gpu card on allocated nodes.<u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US">Our gpu node has 4 cards with their gres.conf to be:<u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US">> cat /etc/slurm/gres.conf<u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US">Name=gpu Type=NVlink_A100_40GB File=/dev/nvidia0 CPUs=0-15<u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US">Name=gpu Type=NVlink_A100_40GB File=/dev/nvidia1 CPUs=16-31<u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US">Name=gpu Type=NVlink_A100_40GB File=/dev/nvidia2 CPUs=32-47<u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US">Name=gpu Type=NVlink_A100_40GB File=/dev/nvidia3 CPUs=48-63<u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US"> <u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US">And for test, we submit simple job batch like:<u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US">#!/bin/bash<u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US">#SBATCH --job-name=test<u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US">#SBATCH --partition=a100<u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US">#SBATCH --nodes=1<u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US">#SBATCH --ntasks=6<u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US">#SBATCH --gres=gpu:1<u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US">#SBATCH --reservation="gpu test"<u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US">hostname<u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US">nvidia-smi<u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US">echo end<u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US"> <u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US">Then in the out file the nvidia-smi showed all 4 gpu cards. But we expect to see only 1 allocated gpu card.<u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US"> <u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US">Official document of slurm said it will set <b>CUDA_VISIBLE_DEVICES </b>env var to restrict the gpu card available to user. But we didn</span>’<span lang="EN-US">t find such variable exists in job environment. We only confirmed it do exist in prolog script environment by adding debug command </span>“<span lang="EN-US">echo $CUDA_VISIBLE_DEVICES</span>”<span lang="EN-US"> to slurm prolog script.<u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US"> <u></u><u></u></span></p><p class="MsoNormal"><span lang="EN-US">So how do slurm co-operate with nvidia tools to make job user only see its allocated gpu card? What is the requirement on nvidia gpu drivers, CUDA toolkit or any other part to help slurm correctly restrict the gpu usage?<u></u><u></u></span></p></div></div></blockquote></div></div></div></blockquote></div>