HyperAIHyperAI
il y a 2 mois

HLATR : Améliorer la recherche textuelle multi-étapes avec un réclassement hybride par transformateur conscient des listes

Yanzhao Zhang; Dingkun Long; Guangwei Xu; Pengjun Xie
HLATR : Améliorer la recherche textuelle multi-étapes avec un réclassement hybride par transformateur conscient des listes
Résumé

Les modèles de langage pré-entraînés en profondeur (comme BERT) sont efficaces pour les tâches de recherche de texte à grande échelle. Les systèmes de recherche de texte existants avec des performances d'avant-garde adoptent généralement une architecture de récupération puis de re-rangage en raison du coût computationnel élevé des modèles de langage pré-entraînés et de la taille importante des corpus. Dans ce cadre multi-étapes, les études précédentes se sont principalement concentrées sur l'optimisation d'une seule étape du système, améliorant ainsi les performances globales de la recherche. Cependant, la manière d'optimiser directement les caractéristiques multi-étapes n'a pas été suffisamment étudiée. Dans cet article, nous concevons le module de re-rangage hybride basé sur les listes et les transformateurs (Hybrid List Aware Transformer Reranking, HLATR) pour intégrer les caractéristiques des étapes de récupération et de re-rangage. HLATR est léger et peut être facilement parallélisé avec les systèmes de recherche de texte existants, permettant ainsi un processus de re-rangage unique mais efficace. Des expériences empiriques sur deux jeux de données de recherche de texte à grande échelle montrent que HLATR peut améliorer efficacement les performances de rangement des méthodes actuelles de recherche de texte multi-étapes.

HLATR : Améliorer la recherche textuelle multi-étapes avec un réclassement hybride par transformateur conscient des listes | Articles de recherche récents | HyperAI