8日前

TitaNet:1次元深度可分Convolutionとグローバルコンテキストを用いた話者表現用ニューラルモデル

Nithin Rao Koluguri, Taejin Park, Boris Ginsburg
TitaNet:1次元深度可分Convolutionとグローバルコンテキストを用いた話者表現用ニューラルモデル
要約

本稿では、話者表現を抽出するための新しいニューラルネットワークアーキテクチャ「TitaNet」を提案する。TitaNetは、グローバルな文脈を持つSqueeze-and-Excitation(SE)層を備えた1次元深さ方向分離畳み込み(1D depth-wise separable convolutions)を用い、その後にチャネルAttentionに基づく統計プーリング層を配置することで、長さが可変な発話を固定長の埋め込み(tベクトル)にマッピングする。TitaNetはスケーラブルなアーキテクチャであり、話者認証タスクにおいてVoxCeleb1の試験データで等誤差率(EER)0.68%という最先端の性能を達成するとともに、話者ダイアライゼーションタスクにおいてもAMI-MixHeadsetで1.73%、AMI-Lapelで1.99%、CH109で1.11%のダイアライゼーション誤差率(DER)を実現した。さらに、TitaNetの様々なサイズを検討し、パラメータ数がわずか600万の軽量モデル「TitaNet-S」を提示した。このモデルは話者ダイアライゼーションタスクにおいて、最先端の性能にほぼ匹敵する結果を達成している。

TitaNet:1次元深度可分Convolutionとグローバルコンテキストを用いた話者表現用ニューラルモデル | 最新論文 | HyperAI超神経