19 天前
CATCH:基于上下文的元强化学习可迁移架构搜索
Xin Chen, Yawen Duan, Zewei Chen, Hang Xu, Zihao Chen, Xiaodan Liang, Tong Zhang, Zhenguo Li

摘要
近年来,神经架构搜索(Neural Architecture Search, NAS)取得了诸多突破性进展。尽管如此,现有许多算法仍受限于特定的搜索空间,且在面对多任务场景时缺乏高效的知识复用机制。这些挑战严重制约了其实际应用,也促使我们提出CATCH——一种新型的基于上下文的元强化学习(Context-bAsed meTa reinforcement learning, CATCH)算法,用于实现可迁移的神经架构搜索。通过融合元学习与强化学习,CATCH能够在不依赖特定搜索空间的前提下,高效适应新任务。CATCH采用概率编码器将任务特性编码为潜在的上下文变量,进而引导其控制器快速“捕捉”表现优异的网络架构。同时,这些上下文信息还能辅助网络评估器筛选低质量候选结构,显著加速学习过程。大量实验结果表明,CATCH在多种主流算法中展现出卓越的通用性与搜索效率。此外,CATCH具备处理跨领域架构搜索的能力,能够在ImageNet、COCO和Cityscapes等多个数据集上识别出具有竞争力的网络结构。据我们所知,这是首个在保持各类场景下鲁棒性的同时,提出高效可迁移NAS解决方案的研究工作。