16日前
感情を強化した会話型顔生成
Sahil Goyal, Shagun Uppal, Sarthak Bhagat, Yi Yu, Yifang Yin, Rajiv Ratn Shah

要約
いくつかの研究では、教育や動画における言語翻訳など、さまざまな現実世界の応用を想定して、唇の動きと一致する会話する顔の生成を実現するエンドツーエンドのパイプラインが開発されている。しかし、これらの先行研究は表情や感情の表現に十分な注意を払っておらず、現実的な外観を持つ動画を生成できていない。さらに、これらの手法の効果はトレーニングデータセットに含まれる顔に大きく依存しており、未見の顔に対しては性能が低下する可能性がある。これを緩和するため、分類された感情を条件として用いる会話する顔生成フレームワークを構築した。これにより、適切な表情を伴った動画を生成でき、より現実的かつ説得力のある結果が得られる。本研究では、喜び、悲しみ、恐怖、怒り、嫌悪、およびニュートラルの6種類の感情をカバーし、モデルが任意のアイデンティティ、感情、言語に適応可能であることを示した。提案するフレームワークは、感情を伴った会話する顔生成をリアルタイムで行えるユーザーに優しいWebインターフェースを備えており、インターフェースの使いやすさ、デザイン性、機能性について主観評価を目的としたユーザー調査も実施した。プロジェクトページ:https://midas.iiitd.edu.in/emo/