
초록
우리는 보완적인 패션 예측 문제를 고려합니다. 기존 접근 방식은 시각적으로 호환되는 다른 카테고리의 패션 아이템이 서로 가까워지는 임베딩 공간을 학습하는 데 초점을 맞추고 있습니다. 그러나 이러한 라벨된 아웃핏을 생성하는 것은 시간과 노력이 많이 들며, 특히 대규모 패션 카탈로그에서 모든 가능한 아웃핏 조합을 생성하는 것은 사실상 불가능합니다. 본 연구에서는 반감독 학습 접근 방식을 제안합니다. 이 방법은 훈련 중에 큰 규모의 라벨되지 않은 패션 코퍼스를 활용하여 의사 양성(positive) 및 의사 부정(negative) 아웃핏을 실시간으로 생성합니다. 각 훈련 배치의 라벨된 아웃핏마다, 라벨된 아웃핏 내의 각 아이템을 라벨되지 않은 아이템과 매칭하여 의사 아웃핏을 얻습니다. 또한, 원본 이미지와 그 변형들의 표현이 일관되도록 하는 일관성 정규화(consistency regularization)를 도입하여, 색상 등 중요한 속성을 자가 감독(self-supervision)을 통해 암묵적으로 통합합니다. 우리는 Polyvore, Polyvore-D 및 새로 만든 대규모 패션 아웃핏 데이터셋에서 광범위한 실험을 수행하고, 제안한 접근 방식이 완전히 감독된 방법들과 비교해 매우 적은 수의 라벨된 예제만으로도 유사한 성능을 보임을 입증하였습니다.