
이벤트 카메라는 기존의 RGB 카메라와 달리 비동기적인 데이터 시퀀스를 생성한다. RGB 카메라는 고정된 주기로 프레임을 캡처하는 반면, 이벤트 카메라는 장면의 변화만을 기록하므로 희소하고 비동기적인 데이터 출력을 생성한다. 이벤트 데이터는 RGB 카메라의 운동 흐림 제거에 유용한 정보를 포함하고 있음에도 불구하고, 이벤트 데이터와 이미지 정보를 통합하는 것은 여전히 도전 과제로 남아 있다. 최근의 최첨단 CNN 기반 흐림 제거 기법들은 일정 시간 동안의 이벤트 데이터를 누적하여 다수의 2차원 이벤트 프레임을 생성한다. 그러나 이러한 기법의 대부분은 이벤트 프레임의 수를 고정된 값으로 설정하고 있어, 특히 빠르게 움직이는 물체가 존재하거나 더 긴 노출 시간이 필요한 경우 시간 해상도가 크게 저하된다. 또한 최근의 현대 카메라(예: 스마트폰 내장 카메라)는 조도 조건이나 장면의 특성에 따라 노출 시간을 동적으로 조절하기 때문에, 고정된 이벤트 프레임 수를 전제로 한 기존 네트워크에 추가적인 문제를 야기한다. 이러한 문제를 해결하기 위해, 동적으로 변하는 수의 이벤트 프레임을 활용할 수 있도록 하는 LSTM 기반의 이벤트 특징 추출 모듈이 개발되었다. 이 모듈을 기반으로, 변형 가능한 컨볼루션과 LSTM 기반의 유연한 이벤트 프레임 융합 네트워크(DLEFNet)를 구축하였다. 이는 조도 조건이나 장면 내 빠르게 움직이는 물체에 따라 노출 시간이 변하는 상황에서 특히 유용하다. 평가 결과를 통해 제안된 방법이 합성 및 실제 데이터셋에서 기존 최첨단 흐림 제거 네트워크를 능가함을 입증하였다.