17日前
NAS-LID:局所内在次元を活用した効率的なニューラルアーキテクチャ探索
Xin He, Jiangchao Yao, Yuxin Wang, Zhenheng Tang, Ka Chu Cheung, Simon See, Bo Han, Xiaowen Chu

要約
ワンショットニューラルアーキテクチャサーチ(NAS)は、すべての可能な子アーキテクチャ(すなわちサブネット)の性能を推定するために1つのスーパーネットを学習することで、探索効率を大幅に向上させる。しかし、サブネット間における特性の不一致により最適化過程で著しい干渉が生じ、結果としてサブネットの性能ランキングの相関性が低下する問題が発生する。これに続く研究では、勾配マッチングなどの特定の基準に基づいてスーパーネットの重みを分解することで干渉を軽減しようとする試みがなされているが、これらの手法は膨大な計算コストと低い空間分離性という課題を抱えている。本研究では、軽量かつ効果的な局所内在次元(Local Intrinsic Dimension; LID)に基づく手法であるNAS-LIDを提案する。NAS-LIDは、各層ごとに低コストで計算可能なLID特徴を用いてアーキテクチャの幾何学的性質を評価し、勾配よりもLIDによって定義される類似性がより優れた分離性を示すため、サブネット間の干渉を効果的に低減する。NASBench-201における広範な実験の結果、NAS-LIDは高い性能と優れた効率性を実現した。特に、勾配駆動型手法と比較して、NASBench-201上での探索においてGPUメモリオーバーヘッドを最大86%削減できることが確認された。さらに、ProxylessNASおよびOFAのアーキテクチャ空間においてもNAS-LIDの有効性を実証した。ソースコード:https://github.com/marsggbo/NAS-LID。