
摘要
在行人检索任务中,我们的目标是从一个查询场景中定位目标行人,并在其他图库场景(gallery scenes)中进行匹配。该检索操作的计算成本与图库场景的数量直接相关,因此减少可能的候选场景数量具有重要意义。本文提出并验证了一种新型模块——图库过滤网络(Gallery Filter Network, GFN),该模块能够高效地在检索过程中排除明显不相关的图库场景,从而提升剩余场景中检测到的行人匹配得分。实验表明,GFN在多种不同条件下均表现出良好的鲁棒性,涵盖跨摄像头、遮挡以及低分辨率等复杂场景。此外,我们构建了基础版本的SeqNeXt行人检索模型,该模型在性能上优于并简化了原始的SeqNet模型。实验结果表明,在标准的PRW和CUHK-SYSU行人检索数据集上,SeqNeXt与GFN相结合的方案显著优于当前其他先进方法。为便于本模型及其他相关模型的实验研究,我们还提供了标准化的数据处理与评估流程工具,以支持行人检索领域的系统化研究。