
摘要
逐像素标注图像序列对人类来说非常繁琐。交互式视频对象分割旨在利用自动方法加速这一过程并减轻标注者的负担。当前大多数方法依赖于深度卷积网络来收集和处理视频中的人类标注信息。然而,这些网络包含数百万个参数,需要大量标记的训练数据以避免过拟合。此外,标签传播通常作为一系列逐帧推理步骤执行,这很难实现并行化,因此耗时较长。在本文中,我们提出了一种基于图神经网络的方法来解决交互式视频对象分割的问题。我们的网络在超像素图上运行,这使得我们可以将问题的维度降低几个数量级。我们展示了该网络仅拥有几千个参数,却能够达到最先进的性能,同时推理速度仍然很快,并且可以用很少的数据快速训练。关键词:交互式视频对象分割、深度卷积网络、图神经网络、超像素图、标签传播、过拟合