
摘要
近年来,眼动估计(gaze estimation)的精度取得了显著提升。然而,现有模型往往未能充分利用其他计算机视觉(CV)任务中已被证明有效的多种算法与技术,例如小型ResNet网络、Inception网络结构以及集成模型等。此外,大多数现有的眼动估计模型依赖于双眼或完整人脸作为输入,但在真实场景数据中,往往无法保证双目图像均具备高分辨率。为此,本文提出一种新型眼动估计模型,该模型融合ResNet与Inception网络架构,并仅基于单眼图像即可完成预测。同时,我们设计了一种集成校准网络(ensemble calibration network),通过整合多个独立模型的预测结果,实现针对个体用户的个性化预测优化。得益于轻量化网络结构的设计,本方法在GazeCapture数据集上实现了优异性能,同时模型参数量极低。当使用双目图像作为输入时,未校准情况下的测试集预测误差为1.591厘米,而采用集成校准模型后误差进一步降低至1.439厘米。即使仅使用单眼图像输入,模型在未校准条件下仍可达到平均2.312厘米的预测误差,经集成校准后误差降低至1.951厘米。此外,我们观察到在测试集中右眼图像的预测误差显著低于左眼,这一发现对未来基于眼动估计的系统设计具有重要参考价值。