7일 전

혼잡한 환경에서의 그립 가능성 탐색: 빠르고 정확한 그립 탐지 위한 방법

{Cewu Lu, Jin Gao, Hongjie Fang, Minghao Gou, Hao-Shu Fang, Chenxi Wang}
혼잡한 환경에서의 그립 가능성 탐색: 빠르고 정확한 그립 탐지 위한 방법
초록

로봇 조작에서 효율적이고 강건한 그립 자세 탐지 능력은 매우 중요하다. 일반적인 6 DoF(자유도) 그립을 위한 기존 방법들은 장면 내 모든 점을 동일하게 취급하며, 보통 균일한 샘플링 방식을 사용하여 그립 후보를 선택한다. 그러나 우리는 현재의 그립 자세 탐지 방법에서 '어디를 그립해야 할지'를 무시하는 것이 성능의 속도와 정확도에 심각한 영향을 미친다는 점을 발견했다. 본 논문에서는 혼잡한 장면에서 그립 가능한 영역을 구분할 수 있는 기하학적 단서에 기반한 새로운 품질 지표인 '그립니스(Graspness)'를 제안한다. 그립니스를 측정하기 위해 전방 탐색(look-ahead searching) 방식을 도입하였으며, 통계적 분석 결과를 통해 제안된 방법의 타당성이 입증되었다. 실용적인 환경에서 그립니스를 빠르게 탐지하기 위해, 탐색 과정을 근사화하는 순차적 그립니스 모델(cascaded graspness model)이라는 신경망을 개발하였다. 광범위한 실험을 통해 제안된 그립니스 모델의 안정성, 일반화 능력 및 효과성을 입증하였으며, 다양한 기존 방법에 즉시 통합하여 사용 가능한 플러그 앤 플레이(Plug-and-Play) 모듈로 활용 가능함을 확인하였다. 기존 여러 방법에 본 그립니스 모델을 도입한 결과, 정확도가 크게 향상됨을 관측할 수 있었다. 또한, 저품질 예측을 조기에 필터링하기 위해 본 그립니스 모델을 통합한 엔드 투 엔드 네트워크인 GSNet을 개발하였다. 대규모 벤치마크인 GraspNet-1Billion에서의 실험 결과, 기존 최고 수준의 방법보다 크게 우수한 성능(30 이상의 AP 향상)을 달성하였으며, 높은 추론 속도를 동시에 확보하였다. GSNet의 라이브러리는 https://github.com/graspnet/anygrasp_sdk 에서 확인할 수 있는 AnyGrasp에 통합되어 있다.

혼잡한 환경에서의 그립 가능성 탐색: 빠르고 정확한 그립 탐지 위한 방법 | 최신 연구 논문 | HyperAI초신경