
이벤트 카메라는 생물학적 시스템에서 영감을 받은 센서로, 밝기 변화를 포착하는 데 특화되어 있습니다. 이러한 새로운 카메라는 고동적 범위, 고프레임률, 극히 낮은 전력 소비 등의 장점을 가지고 있어 기존의 프레임 기반 카메라보다 많은 이점을 제공합니다. 이러한 장점 때문에 이벤트 카메라는 프레임 보간, 의미 분할, 오도메트리, SLAM 등 다양한 분야에서 점차적으로 활용되고 있습니다. 그러나 가상현실(VR) 애플리케이션을 위한 3D 재구성에 대한 이벤트 카메라의 적용은 아직 충분히 연구되지 않았습니다.이 분야의 기존 방법들은 주로 깊이 맵 추정을 통한 3D 재구성에 초점을 맞추었습니다. 밀집된 3D 재구성을 생성하는 방법들은 일반적으로 여러 개의 카메라가 필요하며, 단일 이벤트 카메라를 활용하는 방법들은 반밀집 결과만을 생성할 수 있었습니다. 밀집된 3D 재구성을 생성할 수 있는 다른 단일 카메라 방법들은 상기된 방법이나 다른 기존의 모션으로부터 구조(Structure from Motion, SfM) 또는 다중시점 스테레오(Multi-view Stereo, MVS) 방법들을 포함하는 파이프라인을 만드는 것을 의존하고 있습니다.본 논문에서는 단일 이벤트 카메라만을 사용하여 밀집된 3D 재구성을 해결하기 위한 새로운 접근법을 제안합니다. 최선의 지식으로 판단할 때, 본 연구는 이 방향으로의 첫 시도입니다. 초기 실험 결과는 제안된 방법이 기존 방법들이 사용하는 파이프라인 없이 직접적으로 시각적으로 구별 가능한 밀집된 3D 재구성을 생성할 수 있음을 보여주고 있습니다. 또한, 우리는 이벤트 카메라 시뮬레이터를 사용하여 $39,739$개의 객체 스캔으로 구성된 합성 데이터셋을 만들었습니다. 이 데이터셋은 해당 분야의 다른 관련 연구들을 가속화하는 데 도움이 될 것입니다.