11일 전

TF4CTR: CTR 예측을 위한 적응형 샘플 구분을 통한 쌍집중 프레임워크

Honghao Li, Yiwen Zhang, Yi Zhang, Lei Sang, Yun Yang
TF4CTR: CTR 예측을 위한 적응형 샘플 구분을 통한 쌍집중 프레임워크
초록

클릭률(CTR) 예측의 정확도를 향상시키기 위해 효과적인 특성 간 상호작용 모델링은 산업용 추천 시스템에서 핵심적인 요소이다. 현재 대부분의 딥 CTR 모델들은 복잡한 네트워크 아키텍처를 설계함으로써 복잡한 특성 간 상호작용이나 사용자 행동을 더 잘 포착하려고 한다. 그러나 이러한 모델들에는 두 가지 한계를 확인할 수 있다. 첫째, 모델에 제공되는 샘플들이 동일하게 취급되며, 이로 인해 모델이 단순한 샘플들을 일방적으로 학습하는 경향이 생기고, 반면 어려운 샘플(하드 샘플)은 무시되면서 모델의 일반화 능력이 저하될 수 있다. 둘째, 다양한 상호작용 정보를 포착하기 위해 서로 다른 특성 상호작용 인코더를 설계하나, 이들 인코더는 동일한 감독 신호를 받기 때문에 인코더의 효과가 제한된다. 이러한 문제를 해결하기 위해 본 논문은 플러그 앤 플레이형 Twin Focus(TF) 손실, 샘플 선택 임베딩 모듈(SSEM), 동적 융합 모듈(DFM)을 통합한 새로운 CTR 예측 프레임워크인 Twin Focus Framework for CTR(TF4CTR)를 제안한다. 구체적으로, 프레임워크는 모델의 하단에 SSEM을 도입하여 샘플 간 차이를 구분함으로써 각 샘플에 적합한 인코더를 할당한다. 동시에 TF 손실은 단순한 인코더와 복잡한 인코더 모두에게 맞춤형 감독 신호를 제공한다. 더불어 DFM은 인코더들이 포착한 특성 상호작용 정보를 동적으로 융합하여 보다 정확한 예측을 가능하게 한다. 다섯 개의 실-world 데이터셋을 대상으로 한 실험을 통해 본 프레임워크의 효과성과 호환성을 입증하였으며, 모델에 독립적인 방식으로 다양한 대표적 기준 모델들의 성능을 향상시킬 수 있음을 보였다. 재현 가능한 연구를 촉진하기 위해, 본 연구의 오픈소스 코드와 상세한 실행 로그는 다음 링크에서 공개될 예정이다: https://github.com/salmon1802/TF4CTR.

TF4CTR: CTR 예측을 위한 적응형 샘플 구분을 통한 쌍집중 프레임워크 | 최신 연구 논문 | HyperAI초신경