이웃 강화를 통한 감독형 대조 학습을 활용한 협업 필터링

협업 필터링(CF) 기법은 추천 작업에서 효과적이나, 데이터 희소성 문제에 직면해 있다. 연구자들은 이 문제를 해결하기 위해 대조 학습(contrastive learning)을 활용하여 추가적인 자기지도 신호를 도입하기 시작했다. 그러나 이 접근법은 종종 의도치 않게 타겟 사용자 또는 아이템을 그들의 협업 이웃들로부터 멀어지게 하여 성능 향상에 한계를 초래한다. 이를 해결하기 위해 본 연구에서는 앵커 노드의 협업 이웃을 최종 목적 함수 내에서 긍정 샘플로 간주하는 새로운 방안을 제안한다. 본 논문에서는 감독 대조 손실 함수를 효과적으로 통합하기 위해 두 가지 독창적인 감독 대조 손실 함수를 개발한다. 우리는 그 손실 함수를 기울기(gradient) 관점에서 분석하여, 서로 다른 긍정 샘플이 앵커 노드의 임베딩 업데이트에 동시에 영향을 미친다는 점을 입증한다. 이러한 영향력은 긍정 샘플과 앵커 노드 간의 유사도, 그리고 음성 샘플과의 관계에 따라 달라진다. 기존의 대조 학습 모델인 SGL과 동일한 데이터 증강 방법을 따르며, 그래프 기반 협업 필터링 모델을 기반으로 하여 추천 모델의 성능을 효과적으로 향상시킨다. 본 연구에서 제안하는 이웃 강화 감독 대조 손실(Neighborhood-Enhanced Supervised Contrastive Loss, NESCL) 모델은 SGL의 대조 손실 함수를 본 연구의 새로운 손실 함수로 대체함으로써 뚜렷한 성능 향상을 보였다. 실제 세 가지 데이터셋(Yelp2018, Gowalla, Amazon-Book)에서 NDCG@20 기준으로 원래 SGL 대비 각각 10.09%, 7.09%, 35.36%의 성능 향상을 달성하였다.