<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40">
<head>
<meta http-equiv="Content-Type" content="text/html; charset=us-ascii">
<meta name="Generator" content="Microsoft Word 15 (filtered medium)">
<style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        margin-bottom:.0001pt;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:blue;
        text-decoration:underline;}
a:visited, span.MsoHyperlinkFollowed
        {mso-style-priority:99;
        color:purple;
        text-decoration:underline;}
span.EmailStyle17
        {mso-style-type:personal-compose;
        font-family:"Calibri",sans-serif;
        color:windowtext;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-family:"Calibri",sans-serif;}
@page WordSection1
        {size:8.5in 11.0in;
        margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
        {page:WordSection1;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]-->
</head>
<body lang="EN-US" link="blue" vlink="purple">
<div class="WordSection1">
<p class="MsoNormal">Has anyone been able to run an MPI job using PMIX and heterogeneous jobs successfully with 19.05 (or even 18.08)?  I can run without heterogeneous jobs but get all sorts of errors when I try and split the job up. 
<o:p></o:p></p>
<p class="MsoNormal">I haven’t used MPI/PMIX much so maybe I’m missing something?  Any ideas? 
<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal"><span lang="ES">[slurm@trek8 mpihello]$ sinfo -V<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="ES">slurm 19.05.1<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="ES"><o:p> </o:p></span></p>
<p class="MsoNormal">[slurm@trek8 mpihello]$ which mpicc<o:p></o:p></p>
<p class="MsoNormal">/opt/openmpi/4.0.1/bin/mpicc<o:p></o:p></p>
<p class="MsoNormal"><o:p></o:p></p>
<p class="MsoNormal"><span lang="ES">[slurm@trek8 mpihello]$ sudo yum list pmix<o:p></o:p></span></p>
<p class="MsoNormal">Loaded plugins: langpacks, product-id, search-disabled-repos, subscription-manager<o:p></o:p></p>
<p class="MsoNormal">Installed Packages<o:p></o:p></p>
<p class="MsoNormal">pmix.x86_64                       3.1.2rc1.debug-1.el7                       installed
<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal"><span lang="ES">[slurm@trek8 mpihello]$ mpicc mpihello.c -o mpihh<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="ES"><o:p> </o:p></span></p>
<p class="MsoNormal"><span lang="ES">[slurm@trek8 mpihello]$ srun -w trek[8-12] -n5 --mpi=pmix mpihh | sort<o:p></o:p></span></p>
<p class="MsoNormal">Hello world, I am 0 of 5 - running on trek8<o:p></o:p></p>
<p class="MsoNormal">Hello world, I am 1 of 5 - running on trek9<o:p></o:p></p>
<p class="MsoNormal">Hello world, I am 2 of 5 - running on trek10<o:p></o:p></p>
<p class="MsoNormal">Hello world, I am 3 of 5 - running on trek11<o:p></o:p></p>
<p class="MsoNormal">Hello world, I am 4 of 5 - running on trek12<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">[slurm@trek8 mpihello]$ srun -w trek8 --mpi=pmix : -w trek9 mpihh<o:p></o:p></p>
<p class="MsoNormal">srun: job 753 queued and waiting for resources<o:p></o:p></p>
<p class="MsoNormal">srun: job 753 has been allocated resources<o:p></o:p></p>
<p class="MsoNormal">srun: error: (null) [0] mpi_pmix.c:228 [p_mpi_hook_client_prelaunch] mpi/pmix: ERROR: ot create process mapping<o:p></o:p></p>
<p class="MsoNormal">srun: error: Application launch failed: MPI plugin's pre-launch setup failed<o:p></o:p></p>
<p class="MsoNormal">srun: Job step aborted: Waiting up to 32 seconds for job step to finish.<o:p></o:p></p>
<p class="MsoNormal">srun: error: Timed out waiting for job step to complete<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_utils.c:457 [pmixp_p2p_send] mpi/pmix: ERROR: send ed, rc=2, exceeded the retry limit<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_server.c:1493 [_slurm_send] mpi/pmix: ERROR: Cannotd message to /var/tmp/sgm-slurm/slurmd.spool/stepd.slurm.pmix.753.0, size = 649, hostl<o:p></o:p></p>
<p class="MsoNormal">(null)<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_ring.c:738 [pmixp_coll_ring_reset_if_to] mpi/p ERROR: 0x7f4f5c016050: collective timeout seq=0<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll.c:281 [pmixp_coll_log] mpi/pmix: ERROR: Dumpinllective state<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_ring.c:756 [pmixp_coll_ring_log] mpi/pmix: ERR0x7f4f5c016050: COLL_FENCE_RING state seq=0<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_ring.c:758 [pmixp_coll_ring_log] mpi/pmix: ERRmy peerid: 0:trek8<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_ring.c:765 [pmixp_coll_ring_log] mpi/pmix: ERRneighbor id: next 1:trek9, prev 1:trek9<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_ring.c:775 [pmixp_coll_ring_log] mpi/pmix: ERRContext ptr=0x7f4f5c0160d0, #0, in-use=0<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_ring.c:775 [pmixp_coll_ring_log] mpi/pmix: ERRContext ptr=0x7f4f5c016108, #1, in-use=0<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_ring.c:775 [pmixp_coll_ring_log] mpi/pmix: ERRContext ptr=0x7f4f5c016140, #2, in-use=1<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_ring.c:786 [pmixp_coll_ring_log] mpi/pmix: ERR seq=0 contribs: loc=1/prev=0/fwd=1<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_ring.c:788 [pmixp_coll_ring_log] mpi/pmix: ERR neighbor contribs [2]:<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_ring.c:821 [pmixp_coll_ring_log] mpi/pmix: ERR done contrib: -<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_ring.c:823 [pmixp_coll_ring_log] mpi/pmix: ERR wait contrib: trek9<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_ring.c:825 [pmixp_coll_ring_log] mpi/pmix: ERR status=PMIXP_COLL_RING_PROGRESS<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_ring.c:829 [pmixp_coll_ring_log] mpi/pmix: ERR buf (offset/size): 553/1659<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_tree.c:1317 [pmixp_coll_tree_reset_if_to] mpi/: ERROR: 0x7f4f5c01eb90: collective timeout seq=0<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll.c:281 [pmixp_coll_log] mpi/pmix: ERROR: Dumpinllective state<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_tree.c:1336 [pmixp_coll_tree_log] mpi/pmix: ER 0x7f4f5c01eb90: COLL_FENCE_TREE state seq=0 contribs: loc=1/prnt=0/child=0<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_tree.c:1338 [pmixp_coll_tree_log] mpi/pmix: ER my peerid: 0:trek8<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_tree.c:1341 [pmixp_coll_tree_log] mpi/pmix: ER root host: 0:trek8<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_tree.c:1355 [pmixp_coll_tree_log] mpi/pmix: ER child contribs [1]:<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_tree.c:1382 [pmixp_coll_tree_log] mpi/pmix: ER         done contrib: -<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_tree.c:1384 [pmixp_coll_tree_log] mpi/pmix: ER         wait contrib: trek9<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_tree.c:1391 [pmixp_coll_tree_log] mpi/pmix: ER status: coll=COLL_COLLECT upfw=COLL_SND_NONE dfwd=COLL_SND_NONE<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_tree.c:1393 [pmixp_coll_tree_log] mpi/pmix: ER dfwd status: dfwd_cb_cnt=0, dfwd_cb_wait=0<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_coll_tree.c:1396 [pmixp_coll_tree_log] mpi/pmix: ER bufs (offset/size): upfw 91/16415, dfwd 64/16415<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: trek8 [0] pmixp_dmdx.c:466 [pmixp_dmdx_timeout_cleanup] mpi/pmix: E: timeout: ns=slurm.pmix.753.0, rank=1, host=trek9, ts=1563206701<o:p></o:p></p>
<p class="MsoNormal">[trek8:23061] pml_ucx.c:176  Error: Failed to receive UCX worker address: Not found (-<o:p></o:p></p>
<p class="MsoNormal">[trek8:23061] pml_ucx.c:447  Error: Failed to resolve UCX endpoint for rank 1<o:p></o:p></p>
<p class="MsoNormal">[trek8:23061] *** An error occurred in MPI_Barrier<o:p></o:p></p>
<p class="MsoNormal">[trek8:23061] *** reported by process [1543534944,0]<o:p></o:p></p>
<p class="MsoNormal">[trek8:23061] *** on communicator MPI_COMM_WORLD<o:p></o:p></p>
<p class="MsoNormal">[trek8:23061] *** MPI_ERR_OTHER: known error not in list<o:p></o:p></p>
<p class="MsoNormal">[trek8:23061] *** MPI_ERRORS_ARE_FATAL (processes in this communicator will now abort,<o:p></o:p></p>
<p class="MsoNormal">[trek8:23061] ***    and potentially your MPI job)<o:p></o:p></p>
<p class="MsoNormal">slurmstepd: error: *** STEP 753.0 ON trek8 CANCELLED AT 2019-07-15T09:05:01 ***<o:p></o:p></p>
<p class="MsoNormal">srun: Job step aborted: Waiting up to 32 seconds for job step to finish.<o:p></o:p></p>
<p class="MsoNormal">srun: error: trek8: task 0: Exited with exit code 16<o:p></o:p></p>
<p class="MsoNormal">[slurm@trek8 mpihello]$<o:p></o:p></p>
</div>
</body>
</html>