11일 전
RT-1: 대규모 실세계 제어를 위한 로보틱스 트랜스포머
Anthony Brohan, Noah Brown, Justice Carbajal, Yevgen Chebotar, Joseph Dabis, Chelsea Finn, Keerthana Gopalakrishnan, Karol Hausman, Alex Herzog, Jasmine Hsu, Julian Ibarz, Brian Ichter, Alex Irpan, Tomas Jackson, Sally Jesmonth, Nikhil J Joshi, Ryan Julian, Dmitry Kalashnikov, Yuheng Kuang, Isabel Leal, Kuang-Huei Lee, Sergey Levine, Yao Lu, Utsav Malla, Deeksha Manjunath, Igor Mordatch, Ofir Nachum, Carolina Parada, Jodilyn Peralta, Emily Perez, Karl Pertsch, Jornell Quiambao, Kanishka Rao, Michael Ryoo, Grecia Salazar, Pannag Sanketi, Kevin Sayed, Jaspiar Singh, Sumedh Sontakke, Austin Stone, Clayton Tan, Huong Tran, Vincent Vanhoucke, Steve Vega, Quan Vuong, Fei Xia, Ted Xiao, Peng Xu, Sichun Xu, Tianhe Yu, Brianna Zitkovich

초록
대규모이며 다양한 특성의 태스크 무관 데이터셋에서 지식을 전이함으로써, 현대의 기계 학습 모델은 특정 하류 태스크를 제로샷 또는 소규모 태스크 맞춤형 데이터셋을 이용해 높은 성능으로 해결할 수 있다. 이러한 능력은 컴퓨터 비전, 자연어 처리, 음성 인식 등 다른 분야에서 이미 입증되었지만, 현실 세계의 로봇 데이터를 수집하기 어려운 점을 고려할 때 특히 일반화 능력이 핵심적인 로보틱스 분야에서는 아직 입증되지 않았다. 우리는 이러한 일반화된 로봇 모델의 성공을 가능하게 하는 핵심 요소 중 하나가, 개방형 태스크 무관 학습과 다양한 로봇 데이터를 모두 흡수할 수 있는 고용량 아키텍처의 조합에 있음을 주장한다. 본 논문에서는 로봇 전환기(Robotics Transformer)라 명명된 모델 클래스를 제시하며, 확장 가능한 모델 성질을 보여주는 희망적인 결과를 제공한다. 우리는 실제 로봇이 실제 작업을 수행하는 대규모 데이터 수집을 기반으로, 다양한 모델 클래스의 일반화 능력이 데이터 크기, 모델 크기, 데이터 다양성에 따라 어떻게 달라지는지를 실험적으로 검증하였다. 프로젝트 웹사이트 및 영상은 robotics-transformer1.github.io에서 확인할 수 있다.