HyperAI超神经

CARE:面向预算请求者的联邦学习的兼容性感知激励机制

Xiang Liu, Hau Chan, Minming Li, Xianlong Zeng, Chenchen Fu, Weiwei Wu
发布日期: 4/23/2025
CARE:面向预算请求者的联邦学习的兼容性感知激励机制
摘要

联邦学习 (FL) 是一种很有前景的方法,它允许请求者(例如服务器)从工作者(例如客户端)那里获得本地训练模型。由于工作者通常不愿意免费自愿地提供训练服务/模型,因此联邦学习中的许多激励机制旨在通过向请求者提供金钱奖励来激励其参与。然而,现有研究忽略了现实联邦学习场景中的两个关键方面。首先,工作者可能具有固有的不兼容性(例如,沟通渠道和数据源),这可能导致联邦学习效率下降(例如,沟通效率低和模型泛化能力差)。其次,请求者是有预算的,这限制了他们可以雇佣的工作者数量。在本文中,我们研究了联邦学习中的一种场景,即多个有预算的请求者向不兼容的工作者寻求训练服务,并承担私人训练成本。我们考虑两种情况:合作预算设置,其中请求者合作汇集预算以提高整体效用;以及非合作预算设置,其中每个请求者在各自的预算范围内优化效用。为了解决由工人不兼容导致的效率下降问题,我们开发了新的兼容性感知激励机制 CARE-CO 和 CARE-NO,分别适用于这两种情况,旨在获取真实的私人成本,并在满足请求者预算约束的情况下,确定为请求者雇佣的工人及其报酬。我们的机制保证了个体理性、真实性、预算可行性和近似性能。我们使用真实数据集进行了广泛的实验,结果表明,所提出的机制显著优于现有基准机制。