16 天前

MonoViT:基于视觉Transformer的自监督单目深度估计

Chaoqiang Zhao, Youmin Zhang, Matteo Poggi, Fabio Tosi, Xianda Guo, Zheng Zhu, Guan Huang, Yang Tang, Stefano Mattoccia
MonoViT:基于视觉Transformer的自监督单目深度估计
摘要

自监督单目深度估计是一种极具吸引力的解决方案,其无需依赖难以获取的深度标签进行训练。近年来,卷积神经网络(CNNs)在该任务中取得了显著进展。然而,受限于有限的感受野,现有网络架构仅能进行局部推理,从而削弱了自监督范式的有效性。鉴于视觉Transformer(ViTs)近年来取得的突破性成果,本文提出MonoViT——一种全新的框架,将ViT模型所具备的全局推理能力与自监督单目深度估计的灵活性相结合。通过将标准卷积与Transformer模块相融合,我们的模型能够同时实现局部与全局的语义推理,从而在更精细的层次上提升深度预测的准确性和细节表现。实验表明,MonoViT在公认的KITTI数据集上达到了当前最优的性能水平。此外,该模型在Make3D和DrivingStereo等其他数据集上也展现出卓越的泛化能力,进一步验证了其鲁棒性与适用性。

MonoViT:基于视觉Transformer的自监督单目深度估计 | 最新论文 | HyperAI超神经