
초록
많은 컴퓨터 비전 응용 분야에서 차별화된 세부 표현을 학습하는 방법은 중요한 포인트입니다. 예를 들어, 사람 재식별, 세부 분류, 세부 이미지 검색 등이 있습니다. 이전의 대부분 방법들은 더 나은 전역 표현을 도출하기 위해 메트릭스 학습이나 앙상블에 초점을 맞추었지만, 일반적으로 국소 정보가 부족했습니다. 위와 같은 고려 사항을 바탕으로, 우리는 국소 속성 표현과 전역 카테고리 표현을 동시에 엔드 투 엔드 방식으로 학습할 수 있는 새로운 속성 인식 주의 모델(Attribute-Aware Attention Model, $A^3M$)을 제안합니다. 제안된 모델은 두 가지 주의 모듈로 구성됩니다: 속성 안내 주의 모듈은 속성 정보를 사용하여 서로 다른 영역에서 카테고리 특징을 선택하는 데 도움을 주며, 동시에 카테고리 안내 주의 모듈은 카테고리 힌트를 활용하여 서로 다른 속성의 국소 특징을 선택합니다. 이러한 속성-카테고리 상호작용 과정을 통해 국소 및 전역 특징이 서로에게 이익을 얻습니다. 결국, 결과적인 특징은 노이즈와 관련 없는 특징 대신 이미지 인식에 필요한 본질적인 정보를 더 많이 포함하게 됩니다. Market-1501, CompCars, CUB-200-2011 및 CARS196 데이터셋에서 수행된 광범위한 실험들은 우리의 $A^3M$의 효과성을 입증하였습니다. 코드는 https://github.com/iamhankai/attribute-aware-attention 에서 확인할 수 있습니다.