HyperAIHyperAI

Command Palette

Search for a command to run...

CEDR : Embeddings Contextualisés pour le Classement de Documents

Sean MacAvaney Arman Cohan Andrew Yates Nazli Goharian

Résumé

Bien que les architectures de classement neuronal aient récemment reçu une attention considérable, beaucoup moins d'attention a été portée aux représentations terminologiques utilisées comme entrée pour ces modèles. Dans cette étude, nous examinons comment deux modèles de langage préentraînés contextualisés (ELMo et BERT) peuvent être exploités pour le classement ad hoc de documents. À travers des expériences sur les benchmarks TREC, nous constatons que plusieurs architectures de classement neuronal existantes peuvent bénéficier du contexte supplémentaire fourni par les modèles de langage contextualisés. De plus, nous proposons une approche conjointe qui intègre le vecteur de classification de BERT dans les modèles neuronaux existants et montrons qu'elle surpasses les méthodes de référence ad hoc les plus avancées. Nous appelons cette approche conjointe CEDR (Contextualized Embeddings for Document Ranking). Nous abordons également les défis pratiques liés à l'utilisation de ces modèles pour le classement, notamment la longueur maximale d'entrée imposée par BERT et les impacts sur les performances en temps réel des modèles de langage contextualisés.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
CEDR : Embeddings Contextualisés pour le Classement de Documents | Articles | HyperAI