
摘要
许多计算机视觉问题(如相机标定、图像配准、运动结构重建)通常通过非线性优化方法求解。普遍认为,二阶下降法是针对一般光滑函数进行非线性优化时最稳健、快速且可靠的方法。然而,在计算机视觉的背景下,二阶下降法存在两个主要缺陷:(1)目标函数可能不具备解析可微性,而数值微分近似在实际中往往不可行;(2)海森矩阵(Hessian)可能规模庞大且非正定。为解决上述问题,本文提出一种监督下降法(Supervised Descent Method, SDM),用于最小化非线性最小二乘(Non-linear Least Squares, NLS)函数。在训练阶段,SDM学习一组下降方向序列,以最小化在不同采样点上NLS函数的均值;在测试阶段,SDM仅利用已学习的下降方向来最小化NLS目标函数,无需计算雅可比矩阵(Jacobian)或海森矩阵。本文通过合成数据与真实场景的实验验证了该方法的优势,并展示了SDM在人脸特征点检测任务中达到当前最优(state-of-the-art)的性能表现。相关代码已公开,可访问:www.humansensing.cs.cmu.edu/intraface。