2 个月前

并非所有模型都等效:在自挑战费舍尔空间中预测模型的可迁移性

Wenqi Shao; Xun Zhao; Yixiao Ge; Zhaoyang Zhang; Lei Yang; Xiaogang Wang; Ying Shan; Ping Luo
并非所有模型都等效:在自挑战费舍尔空间中预测模型的可迁移性
摘要

本文解决了一个重要的问题,即对预训练深度神经网络进行排名并筛选出最可迁移的模型用于下游任务。这一挑战在于,每个任务的真实模型排名只能通过在目标数据集上微调预训练模型来生成,这种方法虽然直接但计算成本高昂。近期的一些先进方法提出了几种轻量级的可迁移性指标,以预测微调结果。然而,这些方法仅捕捉静态表示而忽略了微调过程中的动态变化。为此,本文提出了一种新的可迁移性指标,称为自挑战费希尔判别分析(Self-challenging Fisher Discriminant Analysis, SFDA),该指标具有许多现有工作所不具备的优点。首先,SFDA 可以将静态特征嵌入到费希尔空间中,并对其进行优化以提高类间分离度。其次,SFDA 采用自挑战机制,鼓励不同的预训练模型在难例上表现出差异。第三,SFDA 可以轻松选择多个预训练模型进行模型集成。在 11 个下游任务上的 33 个预训练模型进行了大量实验,结果显示 SFDA 在测量预训练模型的可迁移性时具有高效、有效和鲁棒的特点。例如,与最先进的方法 NLEEP 相比,SFDA 平均提高了 59.1% 的性能,并且在实际运行时间上带来了 22.5 倍的速度提升。代码将在 \url{https://github.com/TencentARC/SFDA} 上提供。

并非所有模型都等效:在自挑战费舍尔空间中预测模型的可迁移性 | 最新论文 | HyperAI超神经