
摘要
我们提出了一种全新的、大规模并行的高质量多视角匹配方法。本工作基于Patchmatch思想:从场景空间中随机生成的三维平面出发,通过迭代传播与优化,逐步寻找到最匹配的三维平面,从而为每一视角生成高精度的深度场与法向场,使得所有图像之间的鲁棒光度一致性度量达到最大化。我们的主要创新体现在两个方面:其一,将Patchmatch算法在场景空间中进行形式化建模,从而实现跨多视角的图像相似性聚合,显著提升了深度图的准确性;其二,设计了一种改进的、类扩散传播机制,该机制可实现大规模并行计算,仅需3秒即可在消费级GPU上完成对十张190万像素图像的密集多视角匹配。本方法采用斜置的支持窗口,避免了传统方法中存在的正对平面(fronto-parallel)偏差;整个算法完全局部化且高度并行,计算时间与图像尺寸呈线性关系,与并行线程数成反比。此外,其内存开销极低(每像素仅需存储四个数值,且与深度范围无关),因而具有极强的可扩展性,能够高效处理多张大尺寸图像,并在高深度分辨率下保持优异性能。在DTU和Middlebury多视角数据集以及倾斜航空影像上的实验结果表明,本方法在多种不同场景下均取得了极具竞争力的精度与完整性表现。