2달 전

깊이 있는 이동 카메라 배경 모델

Guy Erez; Ron Shapira Weber; Oren Freifeld
깊이 있는 이동 카메라 배경 모델
초록

비디오 분석에서 배경 모델은 배경/전경 분리, 변화 감지, 이상 감지, 추적 등 다양한 응용 분야를 가지고 있습니다. 그러나 정지된 카메라로 촬영된 비디오에서 이러한 모델을 학습하는 것은 상당히 해결된 과제인 반면, 이동 카메라 배경 모델(Moving-camera Background Model, MCBM)의 경우 카메라 움직임으로 인한 알고리즘적 및 확장성 문제로 성공이 제한적이었습니다. 따라서 기존의 MCBM들은 그 범위와 지원하는 카메라 움직임 유형에 한계가 있습니다. 이러한 장애물들로 인해 비지도 학습 과제에서 딥러닝(Deep Learning, DL) 기반의 단일 통합 솔루션 사용도 제약을 받았습니다. 또한 기존의 MCBM들은 일반적으로 큰 파노라마 이미지 영역이나 온라인 방식으로 배경을 모델링합니다. 그러나 전자는 확장성 부족 등의 여러 문제를 초래하고, 후자는 카메라가 이전에 본 장면의 일부를 다시 방문할 때 이를 인식하고 활용하는 것을 방해합니다.본 논문에서는 이러한 모든 문제점을 해결하고 최신 연구 결과를 달성하는 새로운 방법인 DeepMCBM을 제안합니다. 구체적으로, 먼저 일반적인 비디오 프레임들의 공동 정렬과 특히 DL 환경에서의 공동 정렬과 관련된 어려움들을 식별합니다. 다음으로, 규제 없이 특화되고 미분 불가능한 초기화를 요구하지 않는 공간 변환망(Spatial Transformer Net)을 사용할 수 있는 새로운 공동 정렬 전략을 제안합니다. 이 전략은 공동 정렬로부터 얻은 왜곡되지 않은 강건한 중심 모멘트(Robust Central Moments)에 조건부로 작동하는 오토인코더(Autoencoder)와 결합되어 규제 없이 광범위한 카메라 움직임을 지원하며 우아하게 확장되는 단일 통합 MCBM를 제공합니다. 우리는 다양한 비디오에서 DeepMCBM의 유효성을 보여주며, 다른 방법들이 처리하지 못하는 범위를 넘어서는 비디오에서도 그 성능을 입증하였습니다. 우리의 코드는 https://github.com/BGU-CS-VIL/DeepMCBM 에서 확인할 수 있습니다.