17 天前
OnDev-LCT:面向联邦学习的设备端轻量级卷积Transformer
Chu Myaet Thwal, Minh N.H. Nguyen, Ye Lin Tun, Seong Tae Kim, My T. Thai, Choong Seon Hong

摘要
联邦学习(Federated Learning, FL)作为一种新兴的协作式机器学习范式,能够在保护隐私的前提下,实现多个边缘设备间的协同模型训练。FL的成功依赖于参与模型的高效性及其应对分布式学习独特挑战的能力。尽管多种视觉Transformer(Vision Transformer, ViT)变体在集中式训练中展现出作为现代卷积神经网络(Convolutional Neural Networks, CNNs)替代方案的巨大潜力,但其空前的模型规模和更高的计算需求,严重制约了其在资源受限边缘设备上的部署,限制了其在联邦学习场景中的广泛应用。由于联邦学习中的客户端设备通常具备有限的计算资源和通信带宽,面向此类设备的模型必须在模型规模、计算效率与适应联邦学习中普遍存在的异构数据分布(非独立同分布,non-IID)之间实现良好平衡。为应对上述挑战,本文提出OnDev-LCT:一种面向设备端视觉任务、在训练数据与计算资源受限条件下的轻量级卷积Transformer模型。该模型通过LCT分词器引入图像特定的归纳偏置,利用残差线性瓶颈模块中的高效深度可分离卷积提取局部特征;同时,LCT编码器中的多头自注意力(Multi-Head Self-Attention, MHSA)机制则隐式地捕捉图像的全局表征。在多个基准图像数据集上的大量实验表明,所提出的模型在参数量更少、计算开销更低的前提下,性能显著优于现有轻量级视觉模型,展现出在数据异构性显著且通信瓶颈突出的联邦学习场景中良好的适用性与竞争力。