
摘要
本文研究了适用于自然语言处理(NLP)任务的可微分神经架构搜索(Differentiable Neural Architecture Search, NAS)方法。具体而言,我们通过移除softmax局部约束(softmax-local constraint)对可微分架构搜索进行了改进。此外,我们将可微分NAS首次应用于命名实体识别(Named Entity Recognition, NER)任务,这是该方法在语言建模之外的NLP任务中的首次应用。在PTB语言建模和CoNLL-2003英文NER数据集上的实验结果表明,所提出的方法显著优于多个强基准模型,并在NER任务上取得了新的最先进性能(state-of-the-art)。