
摘要
我们将一阶模型无关元学习算法(包括FOMAML和Reptile)扩展至图像分割任务,提出一种专为快速学习设计的新型神经网络架构,命名为EfficientLab,并引入元学习算法测试误差的严格形式定义,以降低模型在分布外(out-of-distribution)任务上的误差。通过使用FOMAML对EfficientLab进行元训练,并结合贝叶斯优化自动推断测试阶段适应过程中的最优超参数,我们在FSS-1000数据集上取得了当前最优的性能表现。此外,我们构建了一个小型基准数据集FP-k,用于实证研究元学习系统在少样本与多样本设定下的表现。在FP-k数据集上的实验结果表明,元学习初始化在标准少样本图像分割任务中具有显著价值,但当标注样本超过10个后,其性能迅速被传统迁移学习方法所超越,二者最终表现趋于一致。相关代码、元学习模型及FP-k数据集均已开源,可访问 https://github.com/ml4ai/mliis 获取。