基于可学习间距的扩张卷积在脉冲神经网络中的学习延迟研究

脉冲神经网络(Spiking Neural Networks, SNNs)是构建低功耗信息处理系统的一个有前景的研究方向,尤其适用于语音识别等时序任务。在SNN中,延迟指的是一个脉冲从一个神经元传递到另一个神经元所需的时间。这类延迟至关重要,因为它们直接影响脉冲的到达时间,而众所周知,脉冲神经元对同步输入脉冲的响应更为强烈。从更严格的理论角度而言,已有研究表明,可塑性延迟能够显著提升SNN的表达能力。然而,高效学习这些延迟的算法至今仍较为缺乏。本文提出了一种新的离散时间算法,采用反向传播方法,在离线模式下实现对深度前馈SNN中延迟的学习。为模拟连续层之间的延迟,我们采用时间维度上的1D卷积操作。卷积核中仅包含少量非零权重——每个突触对应一个非零权重——其位置即表示对应的延迟。这些延迟位置与权重参数共同通过最近提出的“可学习间距的膨胀卷积”(Dilated Convolution with Learnable Spacings, DCLS)进行联合优化学习。我们在三个基准数据集上评估了所提方法:Spiking Heidelberg Dataset(SHD)、Spiking Speech Commands(SSC)及其非脉冲版本Google Speech Commands v0.02(GSC),这些任务均要求检测时序模式。实验采用具有两层或三层全连接隐藏层的前馈SNN结构,并使用标准的漏电积分-发放(Leaky Integrate-and-Fire, LIF)神经元模型。结果表明,固定随机延迟有助于性能提升,而通过学习获得延迟则能带来更显著的改进。更重要的是,我们的方法在不引入循环连接的前提下,在三个数据集上均超越了现有最先进水平,且参数量显著减少。本研究充分展示了延迟学习在构建高精度、高时效性时序数据处理模型方面的巨大潜力。相关代码基于PyTorch/SpikingJelly框架开发,开源地址为:https://github.com/Thvnvtos/SNN-delays