
ニューラルアーキテクチャ探索(Neural Architecture Search: NAS)は、アーキテクチャ設計を自動化するプロセスであり、エンドツーエンド自動音声認識(ASR)の進展において、専門家が設計したネットワークを学習によって得られたタスク固有のアーキテクチャに置き換えるという魅力的な次世代のステップとして注目されている。初期の計算負荷の高いNAS手法とは異なり、最近の勾配ベースのNAS手法、例えばDARTS(Differentiable ARchiTecture Search)、SNAS(Stochastic NAS)、ProxylessNASなどは、NASの効率性を著しく向上させている。本論文では、以下の2つの貢献を行う。第一に、ストレートスルー(Straight-Through: ST)勾配を用いて、効率的なNAS手法を厳密に構築したST-NASを提案する。ST-NASはSNASの損失関数を採用しつつ、離散変数を通過する勾配をST法で逆伝播させることで損失を最適化する。これはProxylessNASでは明示されていなかった重要な点である。ST勾配を用いてサブグラフのサンプリングを支援することは、DARTSやSNASを上回る効率的なNASを実現するための核心的な要素である。第二に、ST-NASをエンドツーエンドASRに成功裏に適用した。広く標準化された80時間分のWSJデータセットおよび300時間分のSwitchboardデータセットにおける実験結果から、ST-NASによって導かれたアーキテクチャが、両データセットにおいて人間が設計したアーキテクチャを顕著に上回ることが示された。また、ST-NASの特長として、アーキテクチャの転移性(transferability)およびメモリおよび時間コストの低さについても報告している。