17日前

音声認識のための統一型ストリーミングおよび非ストリーミング2パスエンドツーエンドモデル

Binbin Zhang, Di Wu, Zhuoyuan Yao, Xiong Wang, Fan Yu, Chao Yang, Liyong Guo, Yaguang Hu, Lei Xie, Xin Lei
音声認識のための統一型ストリーミングおよび非ストリーミング2パスエンドツーエンドモデル
要約

本稿では、一つのモデル内でストリーミング型と非ストリーミング型のエンドツーエンド(E2E)音声認識を統合するための新規な二段階アプローチを提案する。本モデルは、エンコーダにおけるコンフォーマー層を改良したハイブリッドCTC/アテンションアーキテクチャを採用している。また、任意の右側文脈長を許容するため、動的チャンクベースのアテンション戦略を提案する。推論時において、CTCデコーダはストリーミング方式でn-best仮説を生成する。この際、チャンクサイズを変更するだけで推論遅延を簡単に制御できる。その後、生成されたCTC仮説はアテンションデコーダによって再スコアリングされ、最終的な出力を得る。この効率的な再スコアリングプロセスは、文単位の遅延をほとんど引き起こさない。公開170時間分のAISHELL-1データセットを用いた実験の結果、提案手法はストリーミング型と非ストリーミング型モデルを単純かつ効率的に統合できることを示した。AISHELL-1テストセットにおいて、標準的な非ストリーミングTransformerモデルと比較して、非ストリーミングASRにおいて5.60%の相対的文字誤字率(CER)低減を達成した。また、同一モデルはストリーミングASRシステムにおいて640msの遅延で5.42%のCERを実現した。