17 天前

零样本Logit调整

Dubing Chen, Yuming Shen, Haofeng Zhang, Philip H.S. Torr
零样本Logit调整
摘要

基于语义描述的广义零样本学习(Generalized Zero-Shot Learning, GZSL)在测试阶段识别新类别时面临显著挑战。生成模型的发展使得当前GZSL技术能够更深入地挖掘语义与视觉特征之间的关联,从而形成一种包含生成器与分类器的两阶段范式。然而,现有的基于生成的方法主要关注提升生成器的性能,而忽视了对分类器的优化。本文首先分析了生成的伪未见样本所具有的两个关键特性:偏差(bias)与同质性(homogeneity)。随后,我们通过变分贝叶斯推断反向推导出一种评估指标,该指标能够反映已见类与未见类之间的平衡程度。基于该推导结果,我们将上述两个特性作为先验知识,通过logit调整的方式引入分类器的训练过程,构建了“已见-未见先验”。由此提出的零样本Logit调整(Zero-Shot Logit Adjustment, ZLA)方法,有效提升了基于语义的分类器在生成式GZSL框架中的表现。实验结果表明,所提出的方法在与基础生成器结合时,能够达到当前最优性能,并可显著提升多种生成式零样本学习框架的性能。相关代码已公开于:https://github.com/cdb342/IJCAI-2022-ZLA。

零样本Logit调整 | 最新论文 | HyperAI超神经