
摘要
场景识别是一个图像识别问题,旨在预测图像拍摄地点的类别。本文提出了一种基于卷积神经网络(CNN)的新场景识别方法。该方法通过融合给定图像中的物体和场景信息来实现,所构建的CNN框架被命名为FOS(物体与场景融合)Net。此外,还开发了一种新的损失函数——场景一致性损失(SCL),用于训练FOSNet并提高场景识别性能。提出的SCL基于场景的独特特征,即“场景性”扩散且整个图像中的场景类别不变。实验中,FOSNet在三个最流行的场景识别数据集上进行了测试,并在两个数据集中取得了最先进的性能:在Places 2数据集上达到60.14%,在MIT室内67数据集上达到90.37%。在SUN 397数据集中,获得了第二高的性能,准确率为77.28%。