
摘要
联邦学习(Federated Learning, FL)能够促进分布式模型的构建,从而聚合多个具有隐私保护需求的数据源。然而,客户端之间的信息交互可能受到数据分布差异的影响,即非独立同分布(non-i.i.d.)数据带来的挑战。一个尤为困难的情形是:在无法访问目标客户端标注数据的情况下,实现联邦模型向目标客户端的适应。为此,我们提出联邦对抗交叉训练(Federated Adversarial Cross Training, FACT),该方法利用源客户端之间的隐式域差异,识别目标域中的域偏移(domain shift)。在每一轮联邦学习过程中,FACT 通过交叉初始化一对源客户端,生成具有域特性的表示,并将其作为直接对抗信号,用于学习域不变的数据表示。实验结果表明,在三个典型的多源单目标基准测试中,FACT 在性能上优于当前最先进的联邦学习、非联邦学习以及无源域自适应(source-free domain adaptation)模型;在单源单目标场景下,其表现也超越了最先进的无监督域自适应(Unsupervised Domain Adaptation, UDA)模型。此外,我们进一步研究了 FACT 在通信资源受限以及参与客户端数量变化情况下的行为特性。