2 个月前

基于协同注意力和协同激励的一次性目标检测

Ting-I Hsieh; Yi-Chen Lo; Hwann-Tzong Chen; Tyng-Luh Liu
基于协同注意力和协同激励的一次性目标检测
摘要

本文旨在解决单次对象检测这一具有挑战性的问题。给定一个查询图像块,其类别标签未包含在训练数据中,任务的目标是在目标图像中检测出所有相同类别的实例。为此,我们开发了一种新颖的{\em 共同注意力和共同激励}(CoAE)框架,在三个关键技术方面做出了贡献。首先,我们提出使用非局部操作来探索每个查询-目标对中的共同注意力,并生成适用于单次情况的区域建议。其次,我们设计了一种挤压和共同激励方案,可以自适应地强调相关特征通道,以帮助发现相关的区域建议并最终定位目标对象。最后,我们设计了一种基于边界的排序损失函数,用于隐式学习一种度量方法,以预测区域建议与底层查询之间的相似性,无论其类别标签在训练过程中是否出现过。因此,所提出的模型是一个两阶段检测器,在VOC和MS-COCO数据集上,在单次设置下检测已见和从未见过类别的对象时均表现出强大的基线性能。代码可在https://github.com/timy90022/One-Shot-Object-Detection 获取。注释:- “non-local operation” 翻译为“非局部操作”,这是计算机视觉领域的常用术语。- “squeeze-and-co-excitation” 翻译为“挤压和共同激励”,其中“squeeze”对应中文中的“挤压”,而“co-excitation”则翻译为“共同激励”,以保持专业性和可读性。- “margin-based ranking loss” 翻译为“基于边界的排序损失函数”,这是机器学习领域的一种常见损失函数类型。- 机构名称和人名保留原文形式。

基于协同注意力和协同激励的一次性目标检测 | 最新论文 | HyperAI超神经