<html>
  <head>
    <meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
  </head>
  <body text="#000000" bgcolor="#FFFFFF">
    <p>Hi Marcus, <br>
    </p>
    <p>sure, using Prioritytier is fine. And my point wasn't so much
      about preepmtion but exactely about to use just one partition and
      no preemption instead of two partitions, which is what David was
      asking for, isn't? But actuallym, I forgot that you can do it in
      one partition too by using preempt/qos. Though we haven't use
      that. <br>
    </p>
    <p>Best, <br>
    </p>
    <p>Andreas<br>
    </p>
    <div class="moz-cite-prefix">On 2/18/19 9:07 AM, Marcus Wagner
      wrote:<br>
    </div>
    <blockquote type="cite"
      cite="mid:a0584800-8da8-5387-d729-fef0338c81ec@itc.rwth-aachen.de">
      Hi Andreas,<br>
      <br>
      <br>
      doesn't it suffice to use priority tier partitions? You don't need
      to use preemption at all, do you?<br>
      <br>
      <br>
      Best<br>
      Marcus<br>
      <br>
      <div class="moz-cite-prefix">On 2/18/19 8:27 AM, Henkel, Andreas
        wrote:<br>
      </div>
      <blockquote type="cite"
        cite="mid:B56FC9CE-B0A6-403D-A7FC-7532BA0C627A@uni-mainz.de">
        <div dir="ltr">Hi David,</div>
        <div dir="ltr"><br>
        </div>
        <div dir="ltr">I think there is another option if you don’t want
          to use preemption. If the max runlimit is small (several hours
          for example) working without preemption may be acceptable. </div>
        <div dir="ltr">Assign a qos with a priority boost to the owners
          of the node. Then whenever they submit jobs to the partition
          they get to the top off the queue.</div>
        <div dir="ltr">This works only if there is one dedicated
          partition for those nodes but accessible for all users of
          course. </div>
        <div dir="ltr"><br>
        </div>
        <div dir="ltr">Best,</div>
        <div dir="ltr">Andreas </div>
        <div dir="ltr"><br>
          Am 15.02.2019 um 18:08 schrieb david baker <<a
            href="mailto:djbaker12@gmail.com" moz-do-not-send="true">djbaker12@gmail.com</a>>:<br>
          <br>
        </div>
        <blockquote type="cite">
          <div dir="ltr">
            <div dir="ltr">Hi Paul, Marcus,
              <div><br>
              </div>
              <div>Thank you for your replies. Using partition priority
                all makes sense. I was thinking of doing something
                similar with a set of nodes purchased by another group.
                That is, having a private high priority partition and a
                lower priority "scavenger" partition for the public. In
                this case scavenger jobs will get killed when
                preempted. </div>
              <div><br>
              </div>
              <div>In the present case , I did wonder if it would be
                possible to do something with just a single partition --
                hence my question.Your replies have convinced me that
                two partitions will work -- with preemption leading to
                re-queued jobs. </div>
              <div><br>
              </div>
              <div>Best regards,</div>
              <div>David </div>
            </div>
            <br>
            <div class="gmail_quote">
              <div dir="ltr" class="gmail_attr">On Fri, Feb 15, 2019 at
                3:09 PM Paul Edmon <<a
                  href="mailto:pedmon@cfa.harvard.edu"
                  moz-do-not-send="true">pedmon@cfa.harvard.edu</a>>
                wrote:<br>
              </div>
              <blockquote class="gmail_quote">
                <div>
                  <p>Yup, PriorityTier is what we use to do exactly that
                    here.  That said unless you turn on preemption jobs
                    may still pend if there is no space.  We run with
                    REQUEUE on which has worked well.</p>
                  <p><br>
                  </p>
                  <p>-Paul Edmon-</p>
                  <p><br>
                  </p>
                  <div
                    class="gmail-m_8153567423438616633moz-cite-prefix">On
                    2/15/19 7:19 AM, Marcus Wagner wrote:<br>
                  </div>
                  <blockquote type="cite">Hi David,<br>
                    <br>
                    as far as I know, you can use the PriorityTier
                    (partition parameter) to achieve this. According to
                    the manpages (if I remember right) jobs from higher
                    priority tier partitions have precedence over jobs
                    from lower priority tier partitions, without taking
                    the normal fairshare priority into consideration.<br>
                    <br>
                    Best<br>
                    Marcus<br>
                    <br>
                    <div
                      class="gmail-m_8153567423438616633moz-cite-prefix">On
                      2/15/19 10:07 AM, David Baker wrote:<br>
                    </div>
                    <blockquote type="cite">
                      <div
                        id="gmail-m_8153567423438616633divtagdefaultwrapper"
                        dir="ltr">
                        <p>Hello.</p>
                        <p><br>
                        </p>
                        <p>We have a small set of compute nodes owned by
                          a group. The group has agreed that the rest of
                          the HPC community can use these nodes
                          providing that they (the owners) can always
                          have priority access to the nodes. The four
                          nodes are well provisioned (1 TByte memory
                          each plus 2 GRID K2 graphics cards) and so
                          there is no need to worry about preemption. In
                          fact I'm happy for the nodes to be used as
                          well as possible by all users. It's just that
                          jobs from the owners must take priority if
                          resources are scarce.  </p>
                        <p><br>
                        </p>
                        <p>What is the best way to achieve the above in
                          slurm? I'm planning to place the nodes in
                          their own partition. The node owners will have
                          priority access to the nodes in that
                          partition, but will have no advantage when
                          submitting jobs to the public resources. Does
                          anyone please have any ideas how to deal with
                          this?</p>
                        <p><br>
                        </p>
                        <p>Best regards,</p>
                        <p>David</p>
                        <p><br>
                        </p>
                      </div>
                    </blockquote>
                    <br>
                    <pre class="gmail-m_8153567423438616633moz-signature" cols="72">-- 
Marcus Wagner, Dipl.-Inf.

IT Center
Abteilung: Systeme und Betrieb
RWTH Aachen University
Seffenter Weg 23
52074 Aachen
Tel: +49 241 80-24383
Fax: +49 241 80-624383
<a class="gmail-m_8153567423438616633moz-txt-link-abbreviated" href="mailto:wagner@itc.rwth-aachen.de" target="_blank" moz-do-not-send="true">wagner@itc.rwth-aachen.de</a>
<a class="gmail-m_8153567423438616633moz-txt-link-abbreviated" href="http://www.itc.rwth-aachen.de" target="_blank" moz-do-not-send="true">www.itc.rwth-aachen.de</a>
</pre>
                  </blockquote>
                </div>
              </blockquote>
            </div>
          </div>
        </blockquote>
      </blockquote>
      <br>
      <pre class="moz-signature" cols="72">-- 
Marcus Wagner, Dipl.-Inf.

IT Center
Abteilung: Systeme und Betrieb
RWTH Aachen University
Seffenter Weg 23
52074 Aachen
Tel: +49 241 80-24383
Fax: +49 241 80-624383
<a class="moz-txt-link-abbreviated" href="mailto:wagner@itc.rwth-aachen.de" moz-do-not-send="true">wagner@itc.rwth-aachen.de</a>
<a class="moz-txt-link-abbreviated" href="http://www.itc.rwth-aachen.de" moz-do-not-send="true">www.itc.rwth-aachen.de</a>
</pre>
    </blockquote>
    <pre class="moz-signature" cols="72">-- 
Dr. Andreas Henkel
Operativer Leiter HPC
Zentrum für Datenverarbeitung
Johannes Gutenberg Universität
Anselm-Franz-von-Bentzelweg 12
55099 Mainz
Telefon: +49 6131 39 26434
OpenPGP Fingerprint: FEC6 287B EFF3
7998 A141 03BA E2A9 089F 2D8E F37E</pre>
  </body>
</html>