在计算机视觉领域,立体摄影术(stereoscopy)可通过从两个略有不同的视角获取的两幅二维图像,实现对场景的三维重建,并以视差图(disparity map)的形式提取场景深度的空间信息。在立体摄影测量学中,视差图对于提取数字地形模型(Digital Terrain Model, DTM)至关重要,从而实现三维空间映射,这对于行星表面的深入分析具有重要意义。然而,基于立体匹配算法完成的整个重建过程往往耗时较长,并容易引入大量伪影。加之立体覆盖不足的问题,严重制约了三维行星测绘的发展。近年来,众多基于深度学习的单目深度估计架构被提出,旨在仅凭单张二维图像预测第三维信息。该方法通过简化重建问题,展现出显著优势,因而极大推动了深度模型在超分辨率图像生成与DTM估计领域的研究兴趣。本文将上述两项技术融合,提出一种端到端的统一模型,并引入一种新型生成对抗网络(Generative Adversarial Network, GAN)架构,称为SRDiNet(Super-Resolution Depth Image Network),能够从单张单目图像中估计出4倍分辨率的DTM。此外,本文还设计了一个子网络,利用插值后的输入图像进行精细化处理,以进一步增强最终结果的细节表现。通过三种不同版本的模型对比验证了该方法的有效性:(1)采用GAN的SRDiNet;(2)不包含对抗网络的SRDiNet;(3)不包含精细化学习网络但保留GAN结构的SRDiNet。实验结果以欧洲航天局“罗莎琳德·富兰克林”ExoMars 2023任务着陆点——奥克西亚平原(Oxia Planum)为例,对全部奥克西亚平原瓦片数据应用最优模型,并生成了分辨率提升4倍的三维产品,充分展示了该方法在行星三维测绘中的潜力与实用性。