
摘要
视频异常检测(Video Anomaly Detection, VAD)在计算机视觉领域的视频分析与监控中具有至关重要的作用。然而,现有的VAD模型依赖于预先学习的正常模式,这使得它们难以适应多样化的应用场景。因此,用户在面对新环境时,往往需要重新训练模型或开发独立的AI模型,这一过程不仅要求具备机器学习专业知识,还需高性能硬件支持以及大规模数据采集,严重限制了VAD技术的实际应用价值。为应对上述挑战,本研究提出了一种可定制化视频异常检测技术(Customizable Video Anomaly Detection, C-VAD)及相应的AnyAnomaly模型。C-VAD能够将用户自定义的文本描述作为异常事件的定义,并检测视频中是否包含指定事件的帧。我们通过一种无需微调大视觉语言模型的上下文感知视觉问答机制,高效实现了AnyAnomaly模型。为验证所提方法的有效性,我们构建了C-VAD专用数据集,并实证展示了AnyAnomaly模型的优越性能。此外,该方法在多个标准VAD基准数据集上均表现出具有竞争力的性能,在UBnormal数据集上达到了当前最优(SOTA)水平,并在所有数据集上均展现出更强的泛化能力。相关代码已开源,可通过 GitHub 项目页面:github.com/SkiddieAhn/Paper-AnyAnomaly 获取。