3 个月前
少样本学习中的开放集似然最大化
Malik Boudiaf, Etienne Bennequin, Myriam Tami, Antoine Toubhans, Pablo Piantanida, Céline Hudelot, Ismail Ben Ayed

摘要
我们研究少样本开放集识别(Few-Shot Open-Set Recognition, FSOSR)问题,即在仅拥有少量标注样本的若干类别中对实例进行分类,同时识别出不属于任何已知类别的未知实例。我们采用流行的归纳推理(transductive)设定,利用推理阶段的未标注查询样本以提升性能。基于现有归纳方法在开放集场景下表现不佳的观察,我们提出了一种最大似然原则的推广形式:在传统的参数化模型基础上,引入隐变量得分,以降低潜在异常值的影响。该方法在支持集上嵌入监督约束,并对查询集施加额外惩罚项,以抑制模型对预测结果的过度自信。我们采用块坐标下降(block-coordinate descent)优化策略,交替优化隐变量得分与参数化模型,使二者相互促进。由此提出的统一框架被命名为开放集似然优化(Open-Set Likelihood Optimization, OSLO)。OSLO具有良好的可解释性与完全模块化特性,可无缝集成于任意预训练模型之上。通过大量实验验证,我们的方法在开放集识别的两个核心任务——正常实例分类与异常实例检测——上均显著优于现有的归纳与归纳式方法。