7일 전

실세계 다객체, 다그립 탐지

{Fu-Jen Chu, Ruinian Xu and Patricio A. Vela}
실세계 다객체, 다그립 탐지
초록

로봇 조작을 위한 잡을 수 있는 위치를 예측하기 위해 깊은 학습 아키텍처가 제안된다. 이 아키텍처는 객체가 전혀 보이지 않는 경우, 단일 객체만 보이는 경우, 또는 다수의 객체가 동시에 보이는 다양한 상황을 고려한다. 회귀 대신 '영 가설 경쟁(null hypothesis competition)'을 활용한 학습 문제 정의를 통해, 빨강, 초록, 파랑 및 깊이(RGB-D) 이미지를 입력으로 하는 심층 신경망은 단일 이미지 내에서 단일 객체 또는 다수 객체에 대한 다수의 잡기 후보를 한 번의 추론(싱글샷)으로 예측할 수 있다. Cornell 데이터셋에서 제안된 방법은 이미지 기준(split)과 객체 기준(split)에서 각각 96.0%, 96.1%의 정확도로 최신 기술들을 초월한다. 다수 객체를 포함하는 데이터셋에서의 평가를 통해 아키텍처의 일반화 능력이 입증된다. 실물 실험에서는 가정용 물체 테스트 세트에서 96.0%의 잡기 위치 정확도와 89.0%의 잡기 성공률을 달성하였다. 실시간 처리 시간은 이미지 입력부터 계획 생성까지 0.25초 미만으로 매우 빠르다.

실세계 다객체, 다그립 탐지 | 최신 연구 논문 | HyperAI초신경