
要約
動画中の異常検出は、予想される行動に準拠しないイベントの特定を指します。しかし、既存の方法のほとんどは訓練データの再構築誤差を最小化することによって問題に対処しており、これは異常イベントに対してより大きな再構築誤差を保証するものではありません。本論文では、動画予測フレームワーク内で異常検出問題に取り組む手法を提案します。当該研究において、予測された将来フレームとその真値との違いを利用して異常イベントを検出する初めての試みであると認識しています。正常なイベントに対する高品質な将来フレームの予測を行うために、強度や勾配に関する一般的に使用される外観(空間)制約だけでなく、動画予測において予測フレームと真値フレーム間のオプティカルフローの一貫性を確保する動き(時間)制約も導入しました。これは、動画予測タスクに時間制約を導入した最初の研究です。これらの空間および動き制約により、正常なイベントの将来フレーム予測が容易になり、結果として予想される行動に準拠しない異常イベントの識別が促進されます。おもちゃデータセットや公開されているいくつかのデータセットでの広範な実験により、当手法が正常なイベントにおける不確実性への堅牢性と異常イベントへの感度という点で有効性が確認されています。