<div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr">Tina, thanks for confirming that GPU GRES resources work with 18.08... I might just upgrade to 18.08.03 as I am running 18.08.0<div><br></div><div>The nvidia devices exists on all servers and persistence is set. They have been in there for a number of years and our users make use of them daily. I can actually see that slurmd knows about them while restarting the daemon:</div><div><div>[2018-12-05T08:03:35.989] Slurmd shutdown completing</div><div>[2018-12-05T08:03:36.015] Message aggregation disabled</div><div>[2018-12-05T08:03:36.016] gpu device number 0(/dev/nvidia0):c 195:0 rwm</div><div>[2018-12-05T08:03:36.017] gpu device number 1(/dev/nvidia1):c 195:1 rwm</div><div>[2018-12-05T08:03:36.059] slurmd version 18.08.0 started</div><div>[2018-12-05T08:03:36.059] slurmd started on Wed, 05 Dec 2018 08:03:36 -0500</div><div>[2018-12-05T08:03:36.059] CPUs=48 Boards=1 Sockets=2 Cores=12 Threads=2 Memory=386757 TmpDisk=4758 Uptime=21324804 CPUSpecList=(null) FeaturesAvail=(null) FeaturesActive=(null)</div></div><div><br></div><div>Would you mind sharing the portions of the slurm.conf and corresponding GRES definitions that you are using?. You have individual GRES files for each server based on GPU type? I tried both, none of them work.</div><div><br></div><div>My slurm.conf file has entries for GPUs as follows:</div><div>GresTypes=gpu<br></div><div>#AccountingStorageTRES=gres/gpu,gres/gpu:k20,gres/gpu:1080gtx  (currently commented out)<br></div><div><br></div><div>gres.conf is as follows (had tried different configs, no change with either one...)</div><div><div># GPU Definitions</div><div>NodeName=tiger[01,05,10,15,20] Name=gpu Type=1080gtx File=/dev/nvidia0 Cores=0</div><div>NodeName=tiger[01,05,10,15,20] Name=gpu Type=1080gtx File=/dev/nvidia1 Cores=1</div><div>#NodeName=tiger[01,05,10,15,20] Name=gpu Type=1080gtx File=/dev/nvidia[0-1] Cores=0,1</div><div><br></div><div>NodeName=tiger[02-04,06-09,11-14,16-19,21-22] Name=gpu Type=k20 File=/dev/nvidia0 Cores=0</div><div>NodeName=tiger[02-04,06-09,11-14,16-19,21-22] Name=gpu Type=k20 File=/dev/nvidia1 Cores=1</div><div>#NodeName=tiger[02-04,06-09,11-14,16-19,21-22] Name=gpu Type=k20 File=/dev/nvidia[0-1] Cores=0,1</div></div><div><br></div><div>What am I missing?</div><div><br></div><div>Thanks...</div><div><br></div><div><br></div><div><br></div></div></div></div></div></div><br><div class="gmail_quote"><div dir="ltr">On Wed, Dec 5, 2018 at 4:59 AM Tina Friedrich <<a href="mailto:tina.friedrich@it.ox.ac.uk">tina.friedrich@it.ox.ac.uk</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">I'm running 18.08.3, and I have a fair number of GPU GRES resources - <br>
recently upgraded to 18.08.03 from a 17.x release. It's definitely not <br>
as if they don't work in an 18.x release. (I do not distribute the same <br>
gres.conf file everywhere though, never tried that.)<br>
<br>
Just a really stupid question - the /dev/nvidiaX devices do exist, I <br>
assume? You are running nvidia-persistenced (or something similar) to <br>
ensure the cards are up & the device files initialised etc?<br>
<br>
Tina<br>
<br>
On 04/12/2018 23:36, Brian W. Johanson wrote:<br>
> Only thing to suggest once again is increasing the logging of both <br>
> slurmctl and slurmd.<br>
> As for downgrading, I wouldn't suggest running a 17.x slurmdbd against a <br>
> db built with 18.x.  I imagine there are enough changes there to cause <br>
> trouble.<br>
> I don't imagine downgrading will fix your issue, if you are running <br>
> 18.08.0, the most recent release is 18.08.3.  NEWS packed in the <br>
> tarballs gives the fixes in the versions.  I don't see any that would <br>
> fit you case.<br>
> <br>
> <br>
> On 12/04/2018 02:11 PM, Lou Nicotra wrote:<br>
>> Brian, I used a single gres.conf file and distributed to all nodes... <br>
>> Restarted all daemons, unfortunately scontrol still does not show any <br>
>> Gres resources for GPU nodes...<br>
>><br>
>> Will try to roll back to 17.X release. Is it basically a matter of <br>
>> removing 18.x rpms and installing 17's? Does the DB need to be <br>
>> downgraded also?<br>
>><br>
>> Thanks...<br>
>> Lou<br>
>><br>
>> On Tue, Dec 4, 2018 at 10:25 AM Brian W. Johanson <<a href="mailto:bjohanso@psc.edu" target="_blank">bjohanso@psc.edu</a> <br>
>> <mailto:<a href="mailto:bjohanso@psc.edu" target="_blank">bjohanso@psc.edu</a>>> wrote:<br>
>><br>
>><br>
>>     Do one more pass through making sure<br>
>>     s/1080GTX/1080gtx and s/K20/k20<br>
>><br>
>>     shutdown all slurmd, slurmctld, start slurmctl, start slurmd<br>
>><br>
>><br>
>>     I find it less confusing to have a global gres.conf file.  I<br>
>>     haven't used a list (nvidia[0-1), mainly because I want to specify<br>
>>     thethe cores to use for each gpu.<br>
>><br>
>>     gres.conf would look something like...<br>
>><br>
>>     NodeName=tiger[02-04,06-09,11-14,16-19,21-22] Name=gpu Type=k80<br>
>>     File=/dev/nvidia0 Cores=0<br>
>>     NodeName=tiger[02-04,06-09,11-14,16-19,21-22] Name=gpu Type=k80<br>
>>     File=/dev/nvidia1 Cores=1<br>
>>     NodeName=tiger[01,05,10,15,20] Name=gpu Type=1080gtx<br>
>>     File=/dev/nvidia0 Cores=0<br>
>>     NodeName=tiger[01,05,10,15,20] Name=gpu Type=1080gtx<br>
>>     File=/dev/nvidia1 Cores=1<br>
>><br>
>>     which can be distributed to all nodes.<br>
>><br>
>>     -b<br>
>><br>
>><br>
>>     On 12/04/2018 09:55 AM, Lou Nicotra wrote:<br>
>>>     Brian, the specific node does not show any gres...<br>
>>>     root@panther02 slurm# scontrol show partition=tiger_1<br>
>>>     PartitionName=tiger_1<br>
>>>        AllowGroups=ALL AllowAccounts=ALL AllowQos=ALL<br>
>>>        AllocNodes=ALL Default=YES QoS=N/A<br>
>>>        DefaultTime=NONE DisableRootJobs=NO ExclusiveUser=NO<br>
>>>     GraceTime=0 Hidden=NO<br>
>>>        MaxNodes=UNLIMITED MaxTime=UNLIMITED MinNodes=0 LLN=NO<br>
>>>     MaxCPUsPerNode=UNLIMITED<br>
>>>        Nodes=tiger[01-22]<br>
>>>        PriorityJobFactor=1 PriorityTier=1 RootOnly=NO ReqResv=NO<br>
>>>     OverSubscribe=NO<br>
>>>        OverTimeLimit=NONE PreemptMode=OFF<br>
>>>        State=UP TotalCPUs=1056 TotalNodes=22 SelectTypeParameters=NONE<br>
>>>        JobDefaults=(null)<br>
>>>        DefMemPerNode=UNLIMITED MaxMemPerNode=UNLIMITED<br>
>>><br>
>>>     root@panther02 slurm#  scontrol show node=tiger11<br>
>>>     NodeName=tiger11 Arch=x86_64 CoresPerSocket=12<br>
>>>        CPUAlloc=0 CPUTot=48 CPULoad=11.50<br>
>>>        AvailableFeatures=HyperThread<br>
>>>        ActiveFeatures=HyperThread<br>
>>>        Gres=(null)<br>
>>>        NodeAddr=X.X.X.X NodeHostName=tiger11 Version=18.08<br>
>>>        OS=Linux 3.10.0-327.el7.x86_64 #1 SMP Thu Nov 19 22:10:57 UTC 2015<br>
>>>        RealMemory=1 AllocMem=0 FreeMem=269695 Sockets=2 Boards=1<br>
>>>        State=IDLE ThreadsPerCore=2 TmpDisk=0 Weight=1 Owner=N/A<br>
>>>     MCS_label=N/A<br>
>>>        Partitions=tiger_1,compute_1<br>
>>>        BootTime=2018-04-02T13:30:12 SlurmdStartTime=2018-12-03T16:13:22<br>
>>>        CfgTRES=cpu=48,mem=1M,billing=48<br>
>>>        AllocTRES=<br>
>>>        CapWatts=n/a<br>
>>>        CurrentWatts=0 LowestJoules=0 ConsumedJoules=0<br>
>>>        ExtSensorsJoules=n/s ExtSensorsWatts=0 ExtSensorsTemp=n/s<br>
>>><br>
>>>     So, something is not setup correctly... Could it be a 18.X bug?<br>
>>><br>
>>>     Thanks.<br>
>>><br>
>>><br>
>>>     On Tue, Dec 4, 2018 at 9:31 AM Lou Nicotra<br>
>>>     <<a href="mailto:lnicotra@interactions.com" target="_blank">lnicotra@interactions.com</a> <mailto:<a href="mailto:lnicotra@interactions.com" target="_blank">lnicotra@interactions.com</a>>> wrote:<br>
>>><br>
>>>         Thanks Michael. I will try 17.x as I also could not see<br>
>>>         anything wrong with my settings... Will report back<br>
>>>         afterwards...<br>
>>><br>
>>>         Lou<br>
>>><br>
>>>         On Tue, Dec 4, 2018 at 9:11 AM Michael Di Domenico<br>
>>>         <<a href="mailto:mdidomenico4@gmail.com" target="_blank">mdidomenico4@gmail.com</a> <mailto:<a href="mailto:mdidomenico4@gmail.com" target="_blank">mdidomenico4@gmail.com</a>>> wrote:<br>
>>><br>
>>>             unfortunately, someone smarter then me will have to help<br>
>>>             further.  I'm<br>
>>>             not sure i see anything specifically wrong.  The one<br>
>>>             thing i might try<br>
>>>             is backing the software down to a 17.x release series.  I<br>
>>>             recently<br>
>>>             tried 18.x and had some issues.  I can't say whether<br>
>>>             it'll be any<br>
>>>             different, but you might be exposing an undiagnosed bug<br>
>>>             in the 18.x<br>
>>>             branch<br>
>>>             On Mon, Dec 3, 2018 at 4:17 PM Lou Nicotra<br>
>>>             <<a href="mailto:lnicotra@interactions.com" target="_blank">lnicotra@interactions.com</a><br>
>>>             <mailto:<a href="mailto:lnicotra@interactions.com" target="_blank">lnicotra@interactions.com</a>>> wrote:<br>
>>>             ><br>
>>>             > Made the change in the gres.conf on local server file<br>
>>>             and restarted slurmd and slurmctld on master....<br>
>>>             Unfortunately same error...<br>
>>>             ><br>
>>>             > Distributed corrected gres.conf to all k20 servers,<br>
>>>             restarted slurmd and slurmdctl...   Still has same error...<br>
>>>             ><br>
>>>             > On Mon, Dec 3, 2018 at 4:04 PM Brian W. Johanson<br>
>>>             <<a href="mailto:bjohanso@psc.edu" target="_blank">bjohanso@psc.edu</a> <mailto:<a href="mailto:bjohanso@psc.edu" target="_blank">bjohanso@psc.edu</a>>> wrote:<br>
>>>             >><br>
>>>             >> Is that a lowercase k in k20 specified in the batch<br>
>>>             script and nodename and a uppercase K specified in gres.conf?<br>
>>>             >><br>
>>>             >> On 12/03/2018 09:13 AM, Lou Nicotra wrote:<br>
>>>             >><br>
>>>             >> Hi All, I have recently set up a slurm cluster with my<br>
>>>             servers and I'm running into an issue while submitting<br>
>>>             GPU jobs. It has something to to with gres<br>
>>>             configurations, but I just can't seem to figure out what<br>
>>>             is wrong. Non GPU jobs run fine.<br>
>>>             >><br>
>>>             >> The error is as follows:<br>
>>>             >> sbatch: error: Batch job submission failed: Invalid<br>
>>>             Trackable RESource (TRES) specification  after submitting<br>
>>>             a batch job.<br>
>>>             >><br>
>>>             >> My batch job is as follows:<br>
>>>             >> #!/bin/bash<br>
>>>             >> #SBATCH --partition=tiger_1   # partition name<br>
>>>             >> #SBATCH --gres=gpu:k20:1<br>
>>>             >> #SBATCH --gres-flags=enforce-binding<br>
>>>             >> #SBATCH --time=0:20:00  # wall clock limit<br>
>>>             >> #SBATCH --output=gpu-%J.txt<br>
>>>             >> #SBATCH --account=lnicotra<br>
>>>             >> module load cuda<br>
>>>             >> python gpu1<br>
>>>             >><br>
>>>             >> Where gpu1 is a GPU test script that runs correctly<br>
>>>             while invoked via python. Tiger_1 partition has servers<br>
>>>             with GPUs, with a mix of 1080GTX and K20 as specified in<br>
>>>             slurm.conf<br>
>>>             >><br>
>>>             >> I have defined GRES resources in the slurm.conf file:<br>
>>>             >> # GPU GRES<br>
>>>             >> GresTypes=gpu<br>
>>>             >> NodeName=tiger[01,05,10,15,20] Gres=gpu:1080gtx:2<br>
>>>             >> NodeName=tiger[02-04,06-09,11-14,16-19,21-22]<br>
>>>             Gres=gpu:k20:2<br>
>>>             >><br>
>>>             >> And have a local gres.conf on the servers containing<br>
>>>             GPUs...<br>
>>>             >> lnicotra@tiger11 ~# cat /etc/slurm/gres.conf<br>
>>>             >> # GPU Definitions<br>
>>>             >> # NodeName=tiger[02-04,06-09,11-14,16-19,21-22]<br>
>>>             Name=gpu Type=K20 File=/dev/nvidia[0-1]<br>
>>>             >> Name=gpu Type=K20 File=/dev/nvidia[0-1] Cores=0,1<br>
>>>             >><br>
>>>             >> and a similar one for the 1080GTX<br>
>>>             >> # GPU Definitions<br>
>>>             >> # NodeName=tiger[01,05,10,15,20] Name=gpu Type=1080GTX<br>
>>>             File=/dev/nvidia[0-1]<br>
>>>             >> Name=gpu Type=1080GTX File=/dev/nvidia[0-1] Cores=0,1<br>
>>>             >><br>
>>>             >> The account manager seems to know about the GPUs...<br>
>>>             >> lnicotra@tiger11 ~# sacctmgr show tres<br>
>>>             >>     Type            Name     ID<br>
>>>             >> -------- --------------- ------<br>
>>>             >>      cpu                      1<br>
>>>             >>      mem                      2<br>
>>>             >>   energy                      3<br>
>>>             >>     node                      4<br>
>>>             >>  billing                      5<br>
>>>             >>       fs            disk      6<br>
>>>             >>     vmem                      7<br>
>>>             >>    pages                      8<br>
>>>             >>     gres             gpu   1001<br>
>>>             >>     gres         gpu:k20   1002<br>
>>>             >>     gres     gpu:1080gtx   1003<br>
>>>             >><br>
>>>             >> Can anyone point out what am I missing?<br>
>>>             >><br>
>>>             >> Thanks!<br>
>>>             >> Lou<br>
>>>             >><br>
>>>             >><br>
>>>             >> --<br>
>>>             >><br>
>>>             >> Lou Nicotra<br>
>>>             >><br>
>>>             >> IT Systems Engineer - SLT<br>
>>>             >><br>
>>>             >> Interactions LLC<br>
>>>             >><br>
>>>             >> o:  908-673-1833<br>
>>>             >><br>
>>>             >> m: 908-451-6983<br>
>>>             >><br>
>>>             >> <a href="mailto:lnicotra@interactions.com" target="_blank">lnicotra@interactions.com</a><br>
>>>             <mailto:<a href="mailto:lnicotra@interactions.com" target="_blank">lnicotra@interactions.com</a>><br>
>>>             >><br>
>>>             >> <a href="http://www.interactions.com" rel="noreferrer" target="_blank">www.interactions.com</a> <<a href="http://www.interactions.com" rel="noreferrer" target="_blank">http://www.interactions.com</a>><br>
>>>             >><br>
>>>             >><br>
>>>             *******************************************************************************<br>
>>>             >><br>
>>>             >> This e-mail and any of its attachments may contain<br>
>>>             Interactions LLC proprietary information, which is<br>
>>>             privileged, confidential, or subject to copyright<br>
>>>             belonging to the Interactions LLC. This e-mail is<br>
>>>             intended solely for the use of the individual or entity<br>
>>>             to which it is addressed. If you are not the intended<br>
>>>             recipient of this e-mail, you are hereby notified that<br>
>>>             any dissemination, distribution, copying, or action taken<br>
>>>             in relation to the contents of and attachments to this<br>
>>>             e-mail is strictly prohibited and may be unlawful. If you<br>
>>>             have received this e-mail in error, please notify the<br>
>>>             sender immediately and permanently delete the original<br>
>>>             and any copy of this e-mail and any printout. Thank You.<br>
>>>             >><br>
>>>             >><br>
>>>             *******************************************************************************<br>
>>>             >><br>
>>>             >><br>
>>>             ><br>
>>>             ><br>
>>>             > --<br>
>>>             ><br>
>>>             > Lou Nicotra<br>
>>>             ><br>
>>>             > IT Systems Engineer - SLT<br>
>>>             ><br>
>>>             > Interactions LLC<br>
>>>             ><br>
>>>             > o:  908-673-1833<br>
>>>             ><br>
>>>             > m: 908-451-6983<br>
>>>             ><br>
>>>             > <a href="mailto:lnicotra@interactions.com" target="_blank">lnicotra@interactions.com</a><br>
>>>             <mailto:<a href="mailto:lnicotra@interactions.com" target="_blank">lnicotra@interactions.com</a>><br>
>>>             ><br>
>>>             > <a href="http://www.interactions.com" rel="noreferrer" target="_blank">www.interactions.com</a> <<a href="http://www.interactions.com" rel="noreferrer" target="_blank">http://www.interactions.com</a>><br>
>>>             ><br>
>>>             ><br>
>>>             *******************************************************************************<br>
>>>             ><br>
>>>             > This e-mail and any of its attachments may contain<br>
>>>             Interactions LLC proprietary information, which is<br>
>>>             privileged, confidential, or subject to copyright<br>
>>>             belonging to the Interactions LLC. This e-mail is<br>
>>>             intended solely for the use of the individual or entity<br>
>>>             to which it is addressed. If you are not the intended<br>
>>>             recipient of this e-mail, you are hereby notified that<br>
>>>             any dissemination, distribution, copying, or action taken<br>
>>>             in relation to the contents of and attachments to this<br>
>>>             e-mail is strictly prohibited and may be unlawful. If you<br>
>>>             have received this e-mail in error, please notify the<br>
>>>             sender immediately and permanently delete the original<br>
>>>             and any copy of this e-mail and any printout. Thank You.<br>
>>>             ><br>
>>>             ><br>
>>>             *******************************************************************************<br>
>>><br>
>>><br>
>>><br>
>>>         -- <br>
>>><br>
>>>         *Lou Nicotra*<br>
>>><br>
>>>         IT Systems Engineer - SLT<br>
>>><br>
>>>         Interactions LLC<br>
>>><br>
>>>         o: 908-673-1833 <tel:781-405-5114><br>
>>><br>
>>>         m: 908-451-6983 <tel:781-405-5114><br>
>>><br>
>>>         _<a href="mailto:lnicotra@interactions.com" target="_blank">lnicotra@interactions.com</a> <mailto:<a href="mailto:lnicotra@interactions.com" target="_blank">lnicotra@interactions.com</a>>_<br>
>>><br>
>>>         <a href="http://www.interactions.com" rel="noreferrer" target="_blank">www.interactions.com</a> <<a href="http://www.interactions.com/" rel="noreferrer" target="_blank">http://www.interactions.com/</a>><br>
>>><br>
>>><br>
>>><br>
>>>     -- <br>
>>><br>
>>>     *Lou Nicotra*<br>
>>><br>
>>>     IT Systems Engineer - SLT<br>
>>><br>
>>>     Interactions LLC<br>
>>><br>
>>>     o: 908-673-1833 <tel:781-405-5114><br>
>>><br>
>>>     m: 908-451-6983 <tel:781-405-5114><br>
>>><br>
>>>     _<a href="mailto:lnicotra@interactions.com" target="_blank">lnicotra@interactions.com</a> <mailto:<a href="mailto:lnicotra@interactions.com" target="_blank">lnicotra@interactions.com</a>>_<br>
>>><br>
>>>     <a href="http://www.interactions.com" rel="noreferrer" target="_blank">www.interactions.com</a> <<a href="http://www.interactions.com/" rel="noreferrer" target="_blank">http://www.interactions.com/</a>><br>
>>><br>
>>>     *******************************************************************************<br>
>>><br>
>>>     This e-mail and any of its attachments may contain Interactions<br>
>>>     LLC proprietary information, which is privileged, confidential,<br>
>>>     or subject to copyright belonging to the Interactions LLC. This<br>
>>>     e-mail is intended solely for the use of the individual or entity<br>
>>>     to which it is addressed. If you are not the intended recipient<br>
>>>     of this e-mail, you are hereby notified that any dissemination,<br>
>>>     distribution, copying, or action taken in relation to the<br>
>>>     contents of and attachments to this e-mail is strictly prohibited<br>
>>>     and may be unlawful. If you have received this e-mail in error,<br>
>>>     please notify the sender immediately and permanently delete the<br>
>>>     original and any copy of this e-mail and any printout. Thank You.<br>
>>><br>
>>>     *******************************************************************************<br>
>>><br>
>><br>
>><br>
>><br>
>> -- <br>
>><br>
>> *Lou Nicotra*<br>
>><br>
>> IT Systems Engineer - SLT<br>
>><br>
>> Interactions LLC<br>
>><br>
>> o: 908-673-1833 <tel:781-405-5114><br>
>><br>
>> m: 908-451-6983 <tel:781-405-5114><br>
>><br>
>> _<a href="mailto:lnicotra@interactions.com" target="_blank">lnicotra@interactions.com</a> <mailto:<a href="mailto:lnicotra@interactions.com" target="_blank">lnicotra@interactions.com</a>>_<br>
>><br>
>> <a href="http://www.interactions.com" rel="noreferrer" target="_blank">www.interactions.com</a> <<a href="http://www.interactions.com/" rel="noreferrer" target="_blank">http://www.interactions.com/</a>><br>
>><br>
>> *******************************************************************************<br>
>><br>
>> This e-mail and any of its attachments may contain Interactions LLC <br>
>> proprietary information, which is privileged, confidential, or subject <br>
>> to copyright belonging to the Interactions LLC. This e-mail is <br>
>> intended solely for the use of the individual or entity to which it is <br>
>> addressed. If you are not the intended recipient of this e-mail, you <br>
>> are hereby notified that any dissemination, distribution, copying, or <br>
>> action taken in relation to the contents of and attachments to this <br>
>> e-mail is strictly prohibited and may be unlawful. If you have <br>
>> received this e-mail in error, please notify the sender immediately <br>
>> and permanently delete the original and any copy of this e-mail and <br>
>> any printout. Thank You.<br>
>><br>
>> *******************************************************************************<br>
>><br>
> <br>
</blockquote></div><br clear="all"><div><br></div>-- <br><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><p style="margin-bottom:0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-repeat:initial"><b><span style="font-size:9.5pt;font-family:"Arial",sans-serif;color:#6fa8dc">Lou Nicotra</span></b><span style="font-size:9.5pt;font-family:Arial,sans-serif"></span></p>

<p style="margin-bottom:0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-repeat:initial"><span style="font-size:9.5pt;font-family:"Arial",sans-serif;color:#666666">IT Systems Engineer -
SLT</span><span style="font-size:9.5pt;font-family:Arial,sans-serif"></span></p>

<p style="margin-bottom:0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-repeat:initial"><span style="font-size:9.5pt;font-family:"Arial",sans-serif;color:#666666">Interactions LLC</span></p>

<p style="margin-bottom:0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-repeat:initial"><span style="font-size:9.5pt;font-family:Arial,sans-serif">o:  </span><span style="font-size:9.5pt;font-family:"Arial",sans-serif;color:#666666"><a href="tel:781-405-5114" target="_blank"><span style="color:#1155cc">908-673-1833</span></a></span><span style="font-size:9.5pt;font-family:Arial,sans-serif"></span></p>

<p style="margin-bottom:0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-repeat:initial"><span style="font-size:9.5pt;font-family:"Arial",sans-serif;color:#666666">m: <a href="tel:781-405-5114" target="_blank"><span style="color:#1155cc">908-451-6983</span></a></span><span style="font-size:9.5pt;font-family:Arial,sans-serif"></span></p>

<p style="margin-bottom:0.0001pt;line-height:normal;background-image:initial;background-position:initial;background-repeat:initial"><u><span style="font-size:9.5pt;font-family:"Arial",sans-serif;color:#1155cc"><a href="mailto:lnicotra@interactions.com" target="_blank">lnicotra@interactions.com</a></span></u><span style="font-size:9.5pt;font-family:Arial,sans-serif"></span></p>

<span style="font-size:9.5pt;line-height:107%;font-family:"Arial",sans-serif;color:#666666"><a href="http://www.interactions.com/" target="_blank"><span style="color:#1155cc">www.interactions.com</span></a></span><br></div></div>

<br>
<font face="Times New Roman" size="3">

</font><p style="margin:0in 0in 8pt"><font face="Calibri" size="3">******************************<wbr>******************************<wbr>*******************</font></p><font face="Times New Roman" size="3">

</font><p style="margin:0in 0in 8pt"><font face="Calibri" size="3">This e-mail and any of its attachments may contain
Interactions LLC proprietary information, which is privileged,
confidential, or subject to copyright belonging to the Interactions
LLC. This e-mail is intended solely for the use of the individual or
entity to which it is addressed. If you are not the intended recipient of this
e-mail, you are hereby notified that any dissemination, distribution, copying,
or action taken in relation to the contents of and attachments to this e-mail
is strictly prohibited and may be unlawful. If you have received this e-mail in
error, please notify the sender immediately and permanently delete the original
and any copy of this e-mail and any printout. Thank You.  </font></p><font face="Times New Roman" size="3">

</font><p style="margin:0in 0in 8pt"><font face="Calibri"><font size="3">******************************<wbr>******************************<wbr>*******************<span>  </span></font></font></p><font face="Times New Roman" size="3">

</font>