
摘要
在实际应用中,神经网络往往需要同时满足延迟、能耗、内存等多种资源约束。目前一种常用的寻找适配网络的方法是基于约束型神经架构搜索(Constrained Neural Architecture Search, NAS),但以往的方法仅对约束条件进行软性施加,导致所生成的网络无法严格满足资源限制,进而影响模型的精度。为此,本文提出了一种全新的硬性约束可微分神经架构搜索方法——Hard Constrained diffeRentiable NAS(HardCoRe-NAS)。该方法基于对预期资源需求的精确建模,并采用一种可扩展的搜索机制,在整个搜索过程中严格满足硬性约束。实验结果表明,HardCoRe-NAS能够生成当前最先进的网络架构,在不进行任何调参的情况下,显著优于其他NAS方法,同时严格满足各项资源约束。