2달 전

미래 비디오 합성에 대한 객체 운동 예측

Yue Wu; Rongrong Gao; Jaesik Park; Qifeng Chen
미래 비디오 합성에 대한 객체 운동 예측
초록

과거의 연속된 비디오 프레임 시퀀스가 주어졌을 때 미래의 비디오 프레임을 예측하는 접근 방식을 제시합니다. 우리의 접근 방식은 이미지를 직접 합성하는 대신 배경 장면과 움직이는 객체를 분리하여 복잡한 장면 동역학을 이해하도록 설계되었습니다. 미래의 장면 구성 요소의 모습은 배경의 비강체 변형(non-rigid deformation)과 움직이는 객체의 아핀 변환(affine transformation)을 통해 예측됩니다. 예측된 모습들은 결합되어 합리적인 미래 비디오를 생성합니다. 이러한 절차를 통해 우리의 방법은 다른 접근 방식에 비해 훨씬 적은 찢어짐이나 왜곡 아티팩트(tearing or distortion artifact)를 보입니다. Cityscapes와 KITTI 데이터셋에 대한 실험 결과는 우리의 모델이 시각적 품질과 정확성 측면에서 최신 기술(state-of-the-art)을 능가함을 보여줍니다.

미래 비디오 합성에 대한 객체 운동 예측 | 최신 연구 논문 | HyperAI초신경