
摘要
尽管基于深度学习的光流估计方法取得了显著进展,准确估计大位移和重复性纹理模式仍是当前面临的挑战。这一问题主要源于现有算法中局部特征提取方式及相似性搜索机制的局限性。此外,部分现有方法存在运行速度慢、显存占用过高等问题。为解决上述问题,本文提出一种基于RAFT框架的新型方法。所提出的注意力引导特征定位(Attention-based Feature Localization, AFL)方法引入注意力机制,以实现全局特征提取并有效应对重复性纹理问题;同时,该方法设计了一种像素匹配算子,用于将第一帧中的像素与第二帧中对应的像素进行匹配,并赋予精确的光流值。为进一步提升算法性能,本文还提出一种非结构化查找算子(Amorphous Lookup Operator, ALO),通过减少搜索算子中的数据冗余并扩大相似性提取的搜索空间,显著提升收敛速度,并增强RAFT对大位移的处理能力。所提出的高效RAFT(Efficient RAFT, Ef-RAFT)方法在Sintel数据集上相较RAFT提升了10%,在KITTI数据集上提升了5%。值得注意的是,这些性能提升仅伴随着33%的推理速度下降和13%的显存占用增加。相关代码已开源,地址为:https://github.com/n3slami/Ef-RAFT