17 天前

ScatSimCLR:基于预训练任务正则化的自监督对比学习方法,适用于小规模数据集

Vitaliy Kinakh, Olga Taran, Svyatoslav Voloshynovskiy
ScatSimCLR:基于预训练任务正则化的自监督对比学习方法,适用于小规模数据集
摘要

本文研究了一种基于多视图对比损失的小规模数据集自监督学习问题,该方法在分类任务中表现出当前最优的性能。尽管已有相关成果报道,但诸如训练复杂性(依赖复杂网络架构)、数据增强生成视图的数量,以及这些因素对分类准确率的影响等关键问题,仍缺乏深入探讨。为系统揭示这些因素的作用,本文采用类似SimCLR的对比损失架构,将基准模型替换为具有几何不变性的“手工设计”网络ScatNet,并引入一个参数量较小的可训练适配器网络。实验表明,在几乎不损失分类准确率的前提下,整个系统的参数量以及所需视图数量均可显著减少。此外,本文还研究了基于预训练任务的正则化策略,该策略通过估计数据增强变换(如旋转、拼图排列)的参数来提升模型性能,适用于传统基准模型及基于ScatNet的模型。最终,实验结果表明,所提出的架构结合预训练任务正则化,能够在显著降低可训练参数数量和视图数量的同时,实现当前最先进的分类性能。

ScatSimCLR:基于预训练任务正则化的自监督对比学习方法,适用于小规模数据集 | 最新论文 | HyperAI超神经