그래프 기반의 주행 장면 위상 추론

자율 주행을 실현하기 위해서는 도로 유전체를 이해하는 것이 필수적입니다. 이 고도의 지능적인 문제는 두 가지 측면을 포함하고 있습니다 - 차선 간 연결 관계와 차선과 교통 요소 간 할당 관계이며, 여기서 포괄적인 위상 추론 방법이 부족합니다. 한편으로는, 기존의 맵 학습 기술들은 분할 또는 차선 선형 패러다임을 사용하여 차선 연결성을 도출하는 데 어려움을 겪고 있거나, 차선 위상 중심 접근 방식은 중앙선 검출에 집중하면서 상호작용 모델링을 무시합니다. 다른 한편으로는, 차량 요소와 차선 간 할당 문제는 이미지 영역에서 제한되어 있어 두 시점에서 대응 관계를 구축하는 방법이 아직 연구되지 않은 과제입니다. 이러한 문제들을 해결하기 위해, 우리는 TopoNet을 제시합니다. TopoNet은 전통적인 인식 작업을 넘어서 교통 지식을 추상화할 수 있는 첫 번째 엔드투엔드 프레임워크입니다. 주행 장면의 위상을 포착하기 위해 세 가지 핵심 설계를 소개합니다: (1) 2D 요소로부터 의미론적 지식을 통합하여 일관된 특징 공간으로 변환하는 임베딩 모듈; (2) 관계를 모델링하고 네트워크 내에서 특징 상호작용을 가능하게 하는 정교한 장면 그래프 신경망; (3) 메시지를 임의로 전송하지 않고, 다양한 종류의 도로 유전체(road genome)에서 사전 지식을 구분할 수 있는 장면 지식 그래프를 설계하였습니다. 우리는 도전적인 장면 이해 벤치마크인 OpenLane-V2에서 TopoNet을 평가하였으며, 우리의 접근 방식은 모든 인식 및 위상 메트릭에서 이전 연구들보다 크게 우월한 성능을 보였습니다. 코드는 다음 링크에서 제공됩니다: https://github.com/OpenDriveLab/TopoNet