
摘要
深度神经网络(DNNs)在图像识别、语音识别等多种任务中展现出卓越的性能。然而,要充分发挥DNN的潜力,需通过训练对大量超参数和网络参数进行精细优化。此外,高性能DNN通常包含海量参数,在训练过程中消耗大量能源。为应对这些挑战,研究人员转向脉冲神经网络(SNNs),其具备更高的能效以及更符合生物机制的数据处理能力,因此在神经形态数据处理任务中尤其适用,尤其是在处理感官数据方面表现突出。尽管SNNs具有诸多优势,但与DNNs类似,它们同样面临多种安全威胁,包括对抗样本攻击和后门攻击。然而,目前学术界对SNNs在安全方面的研究仍处于初步阶段,对相关攻击机制的理解以及防御策略的探索仍显不足。本文针对基于神经形态数据集的SNN后门攻击展开深入研究,探讨了多种触发器在神经形态数据中的应用。具体而言,我们研究了可调节位置与颜色的后门触发器,其灵活性远超传统图像领域中的固定触发模式,从而拓展了攻击的潜在范围。我们提出了多种攻击策略,在实现高达100%攻击成功率的同时,对正常样本的准确率几乎不造成影响。此外,我们评估了这些攻击的隐蔽性,结果表明,所提出的最有效攻击具有极强的隐蔽能力,难以被检测。最后,我们将若干图像领域最先进的防御方法迁移至神经形态数据环境,评估其在SNN中的适用性,发现部分防御机制在新场景下表现不佳,甚至导致模型性能显著下降,暴露出现有防御策略在神经形态计算框架中的局限性。