Command Palette
Search for a command to run...
音声認識のための統一型ストリーミングおよび非ストリーミング2パスエンドツーエンドモデル
音声認識のための統一型ストリーミングおよび非ストリーミング2パスエンドツーエンドモデル
Binbin Zhang Di Wu Zhuoyuan Yao Xiong Wang Fan Yu Chao Yang Liyong Guo Yaguang Hu Lei Xie Xin Lei
概要
本稿では、一つのモデル内でストリーミング型と非ストリーミング型のエンドツーエンド(E2E)音声認識を統合するための新規な二段階アプローチを提案する。本モデルは、エンコーダにおけるコンフォーマー層を改良したハイブリッドCTC/アテンションアーキテクチャを採用している。また、任意の右側文脈長を許容するため、動的チャンクベースのアテンション戦略を提案する。推論時において、CTCデコーダはストリーミング方式でn-best仮説を生成する。この際、チャンクサイズを変更するだけで推論遅延を簡単に制御できる。その後、生成されたCTC仮説はアテンションデコーダによって再スコアリングされ、最終的な出力を得る。この効率的な再スコアリングプロセスは、文単位の遅延をほとんど引き起こさない。公開170時間分のAISHELL-1データセットを用いた実験の結果、提案手法はストリーミング型と非ストリーミング型モデルを単純かつ効率的に統合できることを示した。AISHELL-1テストセットにおいて、標準的な非ストリーミングTransformerモデルと比較して、非ストリーミングASRにおいて5.60%の相対的文字誤字率(CER)低減を達成した。また、同一モデルはストリーミングASRシステムにおいて640msの遅延で5.42%のCERを実現した。