
摘要
我们研究了将深度生成形状模型扩展到高分辨率的问题。受到物体经典视图表示的启发,我们提出了一种通过在六个正交深度投影上执行超分辨率处理的网络来快速上采样3D物体的新方法。这使得我们能够以比直接在3D空间中工作的方法更高效的缩放比例生成高分辨率物体。我们将2D深度超分辨率问题分解为轮廓预测和深度预测,以同时捕捉结构和细节。这种方法使我们的系统能够比单一网络更容易地生成锐利边缘。我们在多个涉及高分辨率3D物体的实验中评估了我们的工作,并展示了我们的系统能够在高达512×512×512的分辨率下准确预测新物体——这是该任务迄今为止报告的最高分辨率。我们在ShapeNet数据集上从RGB图像重建3D物体的任务中达到了最先进的性能,并进一步证明了首个有效的3D超分辨率方法。