7일 전
GraspNet-1Billion: 일반 물체 그립핑을 위한 대규모 벤치마크
{ Cewu Lu, Minghao Gou, Chenxi Wang, Hao-Shu Fang}

초록
물체를 집는 것은 다양한 응용 분야에서 매우 중요한 과제이자, 동시에 도전적인 컴퓨터 비전 문제이다. 그러나 혼잡한 장면에서 현재의 연구들은 풍부한 학습 데이터 부족과 평가 기준 부족이라는 문제에 직면해 있다. 본 연구에서는 대규모의 그립 자세 탐지 데이터셋과 통합된 평가 시스템을 제안한다. 본 데이터셋은 97,280개의 RGB-D 이미지와 10억 개 이상의 그립 자세를 포함하고 있으며, 평가 시스템은 분석적 계산을 통해 그립이 성공했는지 여부를 직접적으로 보고할 수 있다. 이는 지상 진실(ground-truth)을 체계적으로 레이블링하지 않고도 어떤 유형의 그립 자세도 평가할 수 있음을 의미한다. 또한, 포인트 클라우드 입력을 기반으로 한 엔드투엔드 그립 자세 예측 네트워크를 제안하며, 접근 방향과 작업 파라미터를 별도로 학습하는 방식을 채택한다. 더불어 그립의 안정성을 향상시키기 위해 새로운 그립 유사도 필드(affinity field)를 설계하였다. 광범위한 실험을 통해 본 연구의 데이터셋과 평가 시스템이 실제 실험과 잘 일치함을 입증하였으며, 제안한 네트워크는 최신 기술 수준(SOTA)의 성능을 달성함을 보였다. 본 데이터셋, 소스 코드 및 모델은 www.graspnet.net에서 공개되어 있다.