11 天前

基于两万类别的提示预训练用于开放词汇视觉识别

Shuhuai Ren, Aston Zhang, Yi Zhu, Shuai Zhang, Shuai Zheng, Mu Li, Alex Smola, Xu Sun
基于两万类别的提示预训练用于开放词汇视觉识别
摘要

本文提出了一种名为POMP的视觉-语言模型提示预训练方法。该方法在内存和计算效率方面表现优异,能够使学习到的提示(prompt)高效地凝聚超过两万种视觉概念的语义信息。在完成预训练后,该提示具备强大的可迁移性,可直接应用于多种视觉识别任务,包括图像分类、语义分割和目标检测,实现零样本(zero-shot)性能提升。实证评估表明,POMP在21个数据集上均达到当前最优性能,例如在10个图像分类数据集上平均准确率达67.0%(相较于CoOp提升3.1%),在开放词汇Pascal VOC语义分割任务中达到84.4 hIoU(较ZSSeg提升6.9)。相关代码已开源,地址为:https://github.com/amazon-science/prompt-pretraining。

基于两万类别的提示预训练用于开放词汇视觉识别 | 最新论文 | HyperAI超神经