2달 전

DETRs with Collaborative Hybrid Assignments Training을 번역하면 다음과 같습니다: 협력형 하이브리드 할당 훈련을 사용한 DETRs

Zhuofan Zong; Guanglu Song; Yu Liu
DETRs with Collaborative Hybrid Assignments Training을 번역하면 다음과 같습니다:
협력형 하이브리드 할당 훈련을 사용한 DETRs
초록

본 논문에서는 DETR에서 일대일 집합 매칭(one-to-one set matching)을 사용하여 긍정 샘플로 지정된 쿼리가 너무 적으면 인코더의 출력에 대한 희박한 감독(sparse supervision)이 이루어져 인코더의 차별적 특성 학습(discriminative feature learning)에 상당히 부정적인 영향을 미치고, 디코더의 주의 학습(attention learning)에도 반대로 영향을 미친다는 관찰 결과를 제공합니다. 이를 완화하기 위해, 다양한 라벨 할당 방식(versatile label assignment manners)으로부터 더 효율적이고 효과적인 DETR 기반 검출기를 학습할 수 있는 새로운 협업 하이브리드 할당 훈련 방안인 $\mathcal{C}$o-DETR를 제시합니다. 이 새로운 훈련 방안은 ATSS와 Faster RCNN과 같은 일대다(one-to-many) 라벨 할당으로 감독되는 여러 개의 병렬 보조 헤드(multiple parallel auxiliary heads)를 통해 엔드투엔드(end-to-end) 검출기에서 인코더의 학습 능력을 쉽게 강화할 수 있습니다. 또한, 이러한 보조 헤드로부터 긍정 좌표(positive coordinates)를 추출하여 디코더에서 긍정 샘플의 훈련 효율성을 개선하기 위해 추가로 맞춤형 긍정 쿼리를 생성합니다. 추론 시에는 이러한 보조 헤드가 버려지므로, 본 방법은 원래 검출기에 추가적인 매개변수나 계산 비용을 도입하지 않으며, 수작업으로 이루어지는 비최대 억제(non-maximum suppression, NMS)도 필요하지 않습니다. 우리는 DAB-DETR, Deformable-DETR, DINO-Deformable-DETR 등을 포함한 DETR 변형 모델들의 성능 평가를 위해 광범위한 실험을 수행했습니다. 최신 기술인 DINO-Deformable-DETR(Swin-L 사용 시)는 COCO val 데이터셋에서 AP가 58.5%에서 59.5%로 개선되었습니다. 놀랍게도 ViT-L 백본(ViT-L backbone)과 결합했을 때 COCO test-dev 데이터셋에서 66.0% AP, LVIS val 데이터셋에서 67.9% AP를 달성하여 이전 방법들보다 모델 크기가 현저히 작음에도 불구하고 명확한 마진으로 우수한 성능을 보였습니다. 코드는 \url{https://github.com/Sense-X/Co-DETR}에서 확인할 수 있습니다.

DETRs with Collaborative Hybrid Assignments Training을 번역하면 다음과 같습니다: 협력형 하이브리드 할당 훈련을 사용한 DETRs | 최신 연구 논문 | HyperAI초신경