11일 전

편극 자기주의 주의: 고품질 픽셀 단위 회귀를 향하여

Huajun Liu, Fuqiang Liu, Xinyi Fan, Dong Huang
편극 자기주의 주의: 고품질 픽셀 단위 회귀를 향하여
초록

픽셀 단위 회귀는 키 포인트 히트맵 추정 및 세그멘테이션 마스크 생성과 같은 세부적인 컴퓨터 비전 작업에서 가장 흔한 문제 중 하나이다. 이러한 회귀 문제는 특히 고해상도 입력/출력에서 높은 비선형성의 픽셀 단위 의미를 정확히 추정하기 위해 낮은 계산 부담으로 장거리 의존성 모델링이 요구된다는 점에서 매우 도전적이다. 딥 컨볼루션 신경망(DCNN)에서 주목(attention) 메커니즘이 장거리 의존성을 강화하는 데 널리 사용되고 있지만, 요소별 주목(예: Nonlocal 블록)은 학습 과정에서 매우 복잡하고 노이즈에 취약하며, 대부분의 단순화된 주목 하이브리드 모델은 다양한 작업 유형 간 최적의 균형을 도모하려는 시도를 한다. 본 논문에서는 고품질 픽셀 단위 회귀를 달성하기 위한 두 가지 핵심 설계를 통합한 '극성화된 자기 주목(Polarized Self-Attention, PSA)' 블록을 제안한다. (1) 극성화 필터링: 채널 및 공간 주목 계산 시 내부 해상도를 유지하면서 입력 텐서의 대응 차원을 완전히 축소하는 방식. (2) 강화: 일반적인 세부 회귀 작업의 출력 분포(예: 2차원 가우시안 분포(키 포인트 히트맵), 2차원 바이노멀 분포(이진 세그멘테이션 마스크))에 직접 적합한 비선형성 구성. PSA는 채널 전용 및 공간 전용 브랜치 내에서 표현 능력을 극한까지 활용하여, 순차적 및 병렬적 아키텍처 간 성능 차이가 거의 없음을 보였다. 실험 결과, PSA는 표준 베이스라인을 2~4점 향상시키며, 2D 자세 추정 및 세그멘테이션 벤치마크에서 최첨단 기술을 1~2점 향상시켰다.

편극 자기주의 주의: 고품질 픽셀 단위 회귀를 향하여 | 최신 연구 논문 | HyperAI초신경