
要約
近年、ユーザー生成動画(UGV)の感情を自動的に予測する研究への関心が高まっている。しかし、従来の手法は主に少数の重要な視覚フレームに注目しており、意図された感情を正確に表現する文脈情報を十分に捉える能力に限界がある。この課題に対処するため、本論文では弱教師ありの枠組みのもとで、重要なフレームだけでなく、文脈情報および音声関連情報を同時に特定するマルチモーダル時系列消去ネットワークを提案する。具体的には、まず異なる動画セグメント間における内在的および跨モーダルな関係性を活用して、正確に重要なフレームを選択する。その後、反復的に重要なフレームを消去することで、モデルが補完的な情報を含む文脈に注目するよう促す。3つの挑戦的な動画感情ベンチマークにおける広範な実験結果から、本手法が最先端の手法と比較して優れた性能を発揮することが示された。コードは https://github.com/nku-zhichengzhang/WECL にて公開されている。