7일 전

평균 정밀도 최적화의 재고: 긍정 인스턴스 이전의 부정 인스턴스에만 처벌하는 것만으로도 충분하다

Zhuo Li, Weiqing Min, Jiajun Song, Yaohui Zhu, Liping Kang, Xiaoming Wei, Xiaolin Wei, Shuqiang Jiang
평균 정밀도 최적화의 재고: 긍정 인스턴스 이전의 부정 인스턴스에만 처벌하는 것만으로도 충분하다
초록

평균 정밀도(Average Precision, AP) 근사화의 최적화는 이미지 검색 분야에서 널리 연구되어 왔다. AP의 정의상 한계로 인해 기존 방법들은 각 긍정 샘플 이전의 긍정 및 부정 샘플의 순위를 모두 고려한다. 그러나 본 연구에서는 긍정 샘플 이전의 부정 샘플만을 처벌하면 충분하다고 주장한다. 왜냐하면 손실은 오직 이러한 부정 샘플들로부터 발생하기 때문이다. 이를 위해 우리는 긍정 샘플 이전의 부정 샘플만을 처벌하는 새로운 손실 함수인 "긍정 이전의 부정 샘플 처벌(Penalizing Negative instances before Positive ones, PNP)"을 제안한다. 이 손실 함수는 각 긍정 샘플 이전의 부정 샘플 수를 직접 최소화할 수 있다. 또한 AP 기반의 기존 방법들은 고정된 비최적의 기울기 할당 전략을 사용한다. 따라서 우리는 손실 함수의 도함수를 구성함으로써 다양한 기울기 할당 방식을 체계적으로 탐구하였으며, 증가하는 도함수를 갖는 PNP-I와 감소하는 도함수를 갖는 PNP-D를 도출하였다. PNP-I는 더 큰 기울기를 어려운 긍정 샘플에 할당함으로써 이러한 샘플들에 더 집중하고, 관련된 모든 샘플들이 서로 가까워지도록 유도한다. 반면 PNP-D는 이러한 샘플들에 덜 주목하며, 보다 서서히 보정을 수행한다. 대부분의 실제 데이터셋에서는 한 클래스 내에 여러 개의 로컬 클러스터가 존재한다. 이 경우 PNP-I는 이러한 클러스터들을 무분별하게 모아버리지만, PNP-D는 이를 그대로 유지한다. 따라서 PNP-D가 더 우수한 성능을 발휘한다. 세 가지 표준 검색 데이터셋에서 수행한 실험 결과는 위 분석과 일관되며, 광범위한 평가를 통해 PNP-D가 최신 기술(SOTA) 수준의 성능을 달성함을 입증하였다. 코드는 다음 주소에서 제공된다: https://github.com/interestingzhuo/PNPloss