
摘要
Transformer及其变体在语音处理领域取得了显著成功,但其多头自注意力机制计算开销较大。为此,一种新型的选择性状态空间模型——Mamba应运而生,成为潜在替代方案。基于其在自动语音识别任务中的优异表现,本文将其应用于语音欺骗攻击检测。Mamba特别适合该任务,因其能够有效处理长序列数据,从而捕捉伪造语音信号中的异常特征。然而,在标注数据有限的情况下,Mamba的性能可能受到制约。为缓解这一问题,本文提出一种基于双通道架构的新型Mamba结构,并结合自监督学习策略,利用预训练的wav2vec 2.0模型进行知识迁移。实验结果表明,所提出的方法在ASVspoof 2021 LA和DF数据集上均取得了具有竞争力的性能,并实现了更快的推理速度;在更具挑战性的In-the-Wild数据集上,该方法更是展现出最强的检测能力,成为当前最优的语音欺骗攻击检测方案。相关代码已公开发布于:https://github.com/swagshaw/XLSR-Mamba。