
摘要
近年来,深度伪造(Deepfake)技术引发了广泛的社会关注,其潜在的安全威胁及虚假信息传播问题备受瞩目。针对深度伪造检测的研究已取得诸多进展,但如何同时有效识别不同质量等级的深度伪造视频,尤其是低质量伪造视频,仍是亟待解决的重大挑战。现有大多数先进方法通常依赖单一特定模型来检测某一类特定质量的伪造视频。若为不同质量等级的视频构建多个独立模型,并引入视频质量的先验信息,此类策略将带来显著的计算开销,以及模型复杂度和训练数据的额外负担。此外,该方法在实际应用场景中难以实现可扩展性和实用性。为此,本文提出一种通用的模型内协同学习框架(Universal Intra-Model Collaborative Learning Framework),以实现对多种质量等级深度伪造视频的高效、同步检测。该方法为一种无质量感知的深度伪造检测模型,命名为QAD(Quality-Agnostic Deepfake Detection)。具体而言,基于对通用误差期望上界的观察,我们通过希尔伯特-施密特独立性准则(Hilbert-Schmidt Independence Criterion, HSIC)最大化不同质量等级图像中间表征之间的依赖关系,从而增强模型对多质量伪造内容的泛化能力。此外,我们精心设计了一种对抗性权重扰动模块(Adversarial Weight Perturbation Module),在提升模型对图像退化(如噪声、模糊等)鲁棒性的同时,进一步优化整体检测性能。在七个主流深度伪造数据集上的大量实验结果表明,所提出的QAD模型在检测性能上显著优于现有最先进(SOTA)方法,展现出卓越的泛化能力与实用性。