
LiDAR 센서는 자율 주행 차량 및 지능형 로봇의 인지 시스템에서 필수적인 구성 요소이다. 실세계 응용에서 실시간 처리 요구를 충족하기 위해 LiDAR 스캔을 효율적으로 세그멘테이션하는 것이 중요하다. 기존 대부분의 접근 방식은 3차원 포인트 클라우드를 2차원 구형 범위 이미지(spherical range image)로 직접 투영함으로써, 이미지 세그멘테이션에 효과적인 2차원 컨볼루션 연산을 활용한다. 비록 유의미한 성과를 달성했지만, 구형 투영 과정에서 이웃 정보가 잘 보존되지 않으며, 단일 스캔 세그멘테이션 작업에서는 시간 정보가 고려되지 않는다는 한계가 있다. 이러한 문제를 해결하기 위해, 본 연구에서는 LiDAR 시퀀스에 대한 의미론적 세그멘테이션을 위한 새로운 접근법인 Meta-RangeSeg를 제안한다. 이 방법은 공간-시간 정보를 효과적으로 포착하기 위해 새로운 범위 잔차 이미지(range residual image) 표현 방식을 도입하였다. 구체적으로, 메타 특징(meta features)을 추출하기 위해 Meta-Kernel을 활용하여 2차원 범위 이미지 좌표 입력과 3차원 카르테시안 좌표 출력 간의 일관성 불일치를 감소시켰다. 또한, 다중 스케일 특징을 얻기 위해 효율적인 U-Net 백본을 사용하였으며, 특징 집약 모듈(Feature Aggregation Module, FAM)을 도입하여 범위 채널의 역할을 강화하고, 다양한 수준의 특징을 통합하였다. SemanticKITTI 및 SemanticPOSS 데이터셋을 대상으로 광범위한 실험을 수행한 결과, 제안한 Meta-RangeSeg 방법이 기존 방법보다 더 효율적이고 효과적임을 입증하였다. 본 연구의 완전한 구현 코드는 공개되어 있으며, GitHub 링크(https://github.com/songw-zju/Meta-RangeSeg)에서 확인할 수 있다.