HyperAIHyperAI

Command Palette

Search for a command to run...

ScatSimCLR:基于预训练任务正则化的自监督对比学习方法,适用于小规模数据集

Vitaliy Kinakh Olga Taran Svyatoslav Voloshynovskiy

摘要

本文研究了一种基于多视图对比损失的小规模数据集自监督学习问题,该方法在分类任务中表现出当前最优的性能。尽管已有相关成果报道,但诸如训练复杂性(依赖复杂网络架构)、数据增强生成视图的数量,以及这些因素对分类准确率的影响等关键问题,仍缺乏深入探讨。为系统揭示这些因素的作用,本文采用类似SimCLR的对比损失架构,将基准模型替换为具有几何不变性的“手工设计”网络ScatNet,并引入一个参数量较小的可训练适配器网络。实验表明,在几乎不损失分类准确率的前提下,整个系统的参数量以及所需视图数量均可显著减少。此外,本文还研究了基于预训练任务的正则化策略,该策略通过估计数据增强变换(如旋转、拼图排列)的参数来提升模型性能,适用于传统基准模型及基于ScatNet的模型。最终,实验结果表明,所提出的架构结合预训练任务正则化,能够在显著降低可训练参数数量和视图数量的同时,实现当前最先进的分类性能。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供