17 天前

FBNetV5:单次运行中的多任务神经架构搜索

Bichen Wu, Chaojian Li, Hang Zhang, Xiaoliang Dai, Peizhao Zhang, Matthew Yu, Jialiang Wang, Yingyan Celine Lin, Peter Vajda
FBNetV5:单次运行中的多任务神经架构搜索
摘要

神经架构搜索(Neural Architecture Search, NAS)已被广泛用于设计高精度且高效的图像分类模型。然而,将NAS应用于新的计算机视觉任务仍需投入大量人力与计算资源。这主要源于三个原因:其一,以往的NAS研究过度聚焦于图像分类任务,而忽视了其他视觉任务;其二,许多NAS方法专注于优化特定任务的组件,这些组件难以在不同任务间有效迁移;其三,现有NAS方法通常采用“无代理”(proxyless)设计,导致在集成到新任务的训练流程时需要大量定制化工作。为应对上述挑战,我们提出FBNetV5——一种新型NAS框架,能够以显著降低的计算成本和人工投入,为多种视觉任务搜索神经网络架构。具体而言,FBNetV5具备以下三个关键设计:1)构建了一个简洁但涵盖性强且具备良好迁移能力的搜索空间;2)设计了一种与目标任务训练流程解耦的多任务搜索机制;3)提出一种算法,可在单次搜索过程中同时为多个任务寻找最优架构,且其计算成本与任务数量无关。我们在三项基础视觉任务上对FBNetV5进行了评估:图像分类、目标检测与语义分割。在一次搜索运行中,FBNetV5所生成的模型在所有三项任务上均超越了此前的最先进水平:在图像分类任务中(如在与FBNetV3相同计算量FLOPs条件下),ImageNet Top-1准确率提升达+1.3%;在语义分割任务中(相比SegFormer,仅需3.6倍更少的FLOPs),ADE20K验证集上的mIoU提升+1.8%;在目标检测任务中(相比YOLOX,仅需1.2倍更少的FLOPs),COCO验证集mAP提升+1.1%。

FBNetV5:单次运行中的多任务神经架构搜索 | 最新论文 | HyperAI超神经