
要約
Deepfake(「ディープラーニング」+「フェイク」)とは、AIアルゴリズムによって合成生成された動画を指す。これらは娯楽的な用途に利用される可能性がある一方で、演説の改ざんや誤情報の拡散といった悪用のリスクも伴う。Deepfakeの生成プロセスは、視覚的および聴覚的要素の両方の操作を含む。視覚的Deepfakeの検出に関する研究は、多数の検出手法およびデータセットの開発を進めてきたが、音声的Deepfake(例:テキストから音声への変換やボイスコンバージョンシステムによる合成音声)および視覚モダリティと聴覚モダリティの関係については、相対的に無視されてきた。本研究では、視覚的および聴覚的Deepfakeの同時検出という新しいタスクを提案し、視覚的・聴覚的モダリティ間の内在的な同期性を活用することで、Deepfake検出の性能向上が可能であることを示した。実験の結果、提案する同時検出フレームワークは、独立して訓練されたモデルを上回る性能を発揮するとともに、未観測のタイプのDeepfakeに対して優れた汎化能力を示した。