17 天前
匹配它们:视觉可解释的少样本图像分类
Bowen Wang, Liangzhi Li, Manisha Verma, Yuta Nakashima, Ryo Kawasaki, Hajime Nagahara

摘要
少样本学习(Few-shot Learning, FSL)方法通常基于一个假设:预训练知识可从基础(已见)类别中获取,并能有效迁移到新类别(未见类别)。然而,这一假设并不能得到保证,尤其在知识迁移至新类别方面存在不确定性。这一问题导致大多数FSL方法在推理过程中的可解释性不足,限制了其在对风险敏感领域中的应用。本文提出一种全新的图像分类少样本学习方法,该方法利用主干网络生成的视觉表征,以及由新兴的可解释分类器生成的权重。通过加权后的表征仅保留最少数量的可区分特征,同时可视化权重可为FSL过程提供具有信息量的提示。最后,通过一个判别器对支持集与查询集之间每一对图像的表征进行比较,得分最高的图像对将决定最终的分类结果。实验结果表明,所提出的方法在三个主流数据集上均实现了优异的分类准确率与令人满意的可解释性。