HyperAIHyperAI
il y a 2 mois

Compréhension plus approfondie du texte pour l'IR grâce au modèle de langage neuronal contextuel

Zhuyun Dai; Jamie Callan
Compréhension plus approfondie du texte pour l'IR grâce au modèle de langage neuronal contextuel
Résumé

Les réseaux neuronaux offrent de nouvelles possibilités d'apprendre automatiquement des modèles de langage complexes et des relations requête-document. Les modèles de récupération d'informations (IR) basés sur les réseaux neuronaux ont obtenu des résultats prometteurs dans l'apprentissage des modèles de pertinence requête-document, mais peu d'études ont été menées pour comprendre le contenu textuel d'une requête ou d'un document. Cet article examine l'utilisation d'un modèle linguistique neuronal contextuel récemment proposé, BERT, afin de fournir une compréhension plus approfondie du texte pour l'IR. Les résultats expérimentaux montrent que les représentations textuelles contextuelles issues de BERT sont plus efficaces que les plongements lexicaux traditionnels. Par rapport aux modèles de recherche basés sur un sac de mots, le modèle linguistique contextuel peut mieux exploiter les structures linguistiques, apportant des améliorations significatives pour les requêtes formulées en langage naturel. La combinaison de la capacité de compréhension textuelle avec les connaissances de recherche conduit à un modèle BERT pré-entraîné amélioré qui peut bénéficier aux tâches de recherche connexes où les données d'entraînement sont limitées.

Compréhension plus approfondie du texte pour l'IR grâce au modèle de langage neuronal contextuel | Articles de recherche récents | HyperAI