
要約
アクティブスピーカ検出(Active Speaker Detection: ASD)は、1人以上のスピーカーが存在する視覚シーンにおいて、誰が話しているかを検出することを目的としている。成功的なASDは、短期的および長期的な音声および視覚情報の正確な解釈、ならびに音声・視覚間の相互作用の適切な把握に依存する。従来の手法では、短時間特徴に基づいて即時的に判断を行うシステムが主流であったが、本研究では、短期的および長期的特徴の両方を考慮して判断を行う新しいフレームワーク、TalkNetを提案する。TalkNetは、特徴表現のための音声および視覚時間的エンコーダ、モダリティ間相互作用のための音声-視覚クロスアテンション機構、および長期的な発話証拠を捉えるための自己アテンション機構から構成される。実験の結果、AVA-ActiveSpeakerの検証データセットおよびテストデータセットにおいて、最先端のシステムに対してそれぞれ3.5%および3.0%の性能向上を達成した。本研究のコード、モデル、およびデータログは公開予定である。