17일 전

PatchFormer: 패치 어텐션을 활용한 효율적인 포인트 트랜스포머

Zhang Cheng, Haocheng Wan, Xinyi Shen, Zizhao Wu
PatchFormer: 패치 어텐션을 활용한 효율적인 포인트 트랜스포머
초록

점 클라우드 학습 분야는 CNN에서 Transformer로의 모델링 전환을 목격하고 있으며, 순수한 Transformer 아키텍처가 주요 학습 벤치마크에서 최고의 정확도를 달성하고 있다. 그러나 기존의 점 기반 Transformer는 입력 크기에 대해 시간 및 공간 복잡도가 이차적(quadratic)인 큰 어텐션 맵을 생성해야 하므로 계산 비용이 매우 높은 문제가 있다. 이 문제를 해결하기 위해, 우리는 어텐션 맵을 계산할 때 사용할 더 작은 기저(base) 집합을 적응적으로 학습하는 Patch ATtention(PAT)을 제안한다. 이러한 기저들을 가중합(summation)함으로써 PAT은 전역적인 형태적 맥락을 효과적으로 포착할 뿐만 아니라, 입력 크기와 선형(linear) 복잡도를 달성한다. 또한, 다양한 스케일의 특징 간 어텐션을 구축하기 위한 경량형 다중 스케일 어텐션(Multi-Scale aTtention, MST) 블록을 제안한다. 이는 모델에 다중 스케일 특징을 제공한다. PAT과 MST를 결합하여 구성한 신경망 아키텍처인 PatchFormer을 설계하였으며, 이는 두 모듈을 통합한 공동 프레임워크를 통해 점 클라우드 학습을 수행한다. 광범위한 실험을 통해 제안한 네트워크가 기존 점 기반 Transformer보다 9.2배 빠른 속도로 일반적인 점 클라우드 학습 작업에서 유사한 정확도를 달성함을 입증하였다.

PatchFormer: 패치 어텐션을 활용한 효율적인 포인트 트랜스포머 | 최신 연구 논문 | HyperAI초신경