자율 항행을 위한 단일 카메라 깊이 추정 향상을 위한 딥 러닝 기술

이미지의 깊이를 추론하는 것은 2D 이미지를 통해 얻어지는 깊이 정보가 관찰된 실제 장면의 무한한 가능성에서 생성될 수 있기 때문에 컴퓨터 비전 분야에서 기본적인 역 문제입니다. 합성곱 신경망(CNNs)의 발전으로 구조적 특징과 공간적 이미지 정보를 탐색할 수 있게 되면서, 단일 이미지 깊이 추정(SIDE)은 이 개념이 낮은 구현 비용과 환경 조건에 대한 강건성을 제공하기 때문에 과학 및 기술 혁신의 범위에서 종종 강조됩니다. 자율 주행 차량의 맥락에서 최신 CNNs는 다양한 위치에서 자율 주행 과정에 필수적인 고품질 깊이 지도를 생성하여 SIDE 작업을 최적화합니다. 그러나 이러한 네트워크는 일반적으로 라이다(LiDAR) 레이저 스캔으로부터 얻어진 희소하고 노이즈가 많은 깊이 데이터로 감독되며, 고성능 그래픽 처리 장치(GPUs)를 요구하는 높은 계산 비용으로 수행됩니다. 따라서, 우리는 실제 세계 자율 주행을 위해 설계된 새로운 경량화되고 빠른 감독형 CNN 아키텍처와 혁신적인 특징 추출 모델을 제안합니다. 또한, 효율적인 표면 법선 모듈과 간단한 기하학적 2.5D 손실 함수를 결합하여 SIDE 문제를 해결하기 위해 도입하였습니다. 우리는 또한 다중화 알고리즘, 추가적인 의미론적 정보, 표면 법선 및 깊이 정보를 사용하여 프레임워크를 학습시키는 여러 딥러닝 기법을 통합함으로써 혁신하였습니다. 본 연구에서 소개된 방법은 실내 및 실외 환경에서의 로봇 응용을 중심으로 하며, 그 결과는 경쟁력 있고 공개된 NYU Depth V2와 KITTI Depth 데이터셋에서 평가되었습니다.