11日前

AutoSpeech:話者認識におけるニューラルアーキテクチャサーチ

Shaojin Ding, Tianlong Chen, Xinyu Gong, Weiwei Zha, Zhangyang Wang
AutoSpeech:話者認識におけるニューラルアーキテクチャサーチ
要約

音声認識システムにおいて、畳み込みニューラルネットワーク(CNN)は、VGG-NetやResNetなどの市販のバックボーンを用いて構築されることが一般的である。しかし、これらのバックボーンは当初、画像分類を目的として提案されたものであり、音声認識タスクに自然に適しているとは限らない。設計空間を手動で探索することは現実的に困難であるため、本研究では、音声認識タスク向けに初めてのニューラルアーキテクチャ探索(NAS)手法、AutoSpeechを提案する。本手法は、まずニューラルセル内の最適な演算組み合わせを特定し、その後、そのニューラルセルを複数回積み重ねることでCNNモデルを構築する。得られたCNNモデルに対して標準的な学習スキームで訓練を行うことにより、最終的な音声認識モデルが得られる。提案手法の有効性を検証するため、VoxCeleb1データセットを用いて音声識別および音声検証の両タスクにおいて実験を実施した。その結果、VGG-M、ResNet-18、ResNet-34をバックボーンとする既存の音声認識システムと比較して、提案手法から導かれたCNNアーキテクチャは顕著な性能向上を達成しつつ、モデルの複雑性を低く抑えていることが示された。

AutoSpeech:話者認識におけるニューラルアーキテクチャサーチ | 最新論文 | HyperAI超神経