在类脑视觉数据集上比较SNN与RNN:相似性与差异性

神经形态数据(neuromorphic data)记录的是无帧的脉冲事件(spike events),因其能够捕捉时空信息特征以及事件驱动的处理机制,近年来受到广泛关注。脉冲神经网络(Spiking Neural Networks, SNNs)是一类具有时空动态特性的事件驱动模型,被广泛应用于神经形态计算领域,并作为基准模型在神经形态数据上进行评估。有趣的是,机器学习领域的研究者指出,尽管递归(人工)神经网络(Recurrent Neural Networks, RNNs)并非事件驱动型模型,但同样具备提取时空特征的能力。因此,一个关键问题随之浮现:“若将这两类模型共同应用于神经形态数据进行基准测试,将会产生怎样的结果?”这一问题目前尚不明确。在本研究中,我们系统性地比较了SNNs与RNNs在神经形态数据上的性能表现,以视觉数据集作为典型案例展开分析。首先,我们从建模与学习两个角度,深入剖析了SNNs与RNNs(包括原始RNN与长短期记忆网络LSTM)之间的异同。为确保比较的可比性与公平性,我们统一了监督学习算法(基于时间反向传播,Backpropagation Through Time, BPTT)、损失函数设计(利用所有时间步的输出信息)、网络结构(采用堆叠的全连接层或卷积层)以及训练过程中的超参数设置。特别地,考虑到RNN中主流使用的损失函数,我们受脉冲编码机制(rate coding scheme)的启发,对其进行了改进,使其更贴近SNN的损失函数形式。此外,我们通过调整数据集的时间分辨率,系统测试了模型在不同时间尺度下的鲁棒性与泛化能力。最终,我们在两类神经形态数据集上开展了一系列对比实验:一类为通过动态视觉传感器(DVS)转换得到的数据集(N-MNIST),另一类为DVS直接采集的原始数据集(DVS Gesture)。实验结果为理解SNN与RNN在神经形态计算场景下的性能差异与适用边界提供了重要依据。