
摘要
少样本分类旨在通过有限的标记示例学习一个分类器,以识别在训练过程中未见过的类别。尽管已取得显著进展,但网络设计、元学习算法的复杂性不断增加以及实现细节的差异使得公平比较变得困难。本文中,我们提出了1)对几种具有代表性的少样本分类算法进行一致性的比较分析,结果显示,在域间差异较小的数据集上,更深的骨干网络显著缩小了不同方法之间的性能差距;2)一种改进的基线方法,在\miniI 和CUB数据集上与最先进方法相比表现出竞争力;3)一种新的实验设置,用于评估少样本分类算法的跨域泛化能力。我们的研究结果表明,在特征骨干网络较浅的情况下,减少类内变异是一个重要因素,但在使用更深的骨干网络时则不是那么关键。在现实的跨域评估设置中,我们展示了采用标准微调实践的基线方法与其他最先进少样本学习算法相比具有优势。