
摘要
梯度下降算法在深度学习中被广泛使用,通常以梯度作为下降方向,或在预条件(preconditioning)技术对方向进行调整后使用。然而,在许多实际场景中,由于代价函数结构复杂或不可微,尤其是在奇异点附近,梯度的计算在数值上极为困难。本文聚焦于在无监督代价函数中广泛应用的总变差(Total Variation)半范数的推导。具体而言,我们提出一种新颖的迭代方法——代价函数展开(Cost Unrolling),并在此框架下构建了一个可微的代理函数,用于替代原有的硬L1平滑性约束。该方法在训练过程中生成更精确的梯度,从而在不改变网络架构且不增加计算复杂度的前提下,显著提升模型的收敛性,实现更精细的预测。我们在无监督光流估计任务中验证了该方法的有效性。通过在知名基准模型的训练过程中,用所提出的展开代价函数替代原有的L1平滑性约束,我们在MPI Sintel和KITTI 2015两个无监督光流基准测试中均取得了更优结果。尤其值得注意的是,在遮挡区域(平滑性约束起主导作用的区域),平均端点误差(EPE)最高降低了15.82%,显著提升了对运动边缘的捕捉能力,能够识别出更为锐利的运动边界。